<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Simulation on zevorn.blog</title><link>https://zevorn.cn/tags/simulation/</link><description>Recent content in Simulation on zevorn.blog</description><image><title>zevorn.blog</title><url>https://zevorn.cn/avatar.webp</url><link>https://zevorn.cn/avatar.webp</link></image><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Mon, 28 Jul 2025 02:56:44 +0000</lastBuildDate><atom:link href="https://zevorn.cn/tags/simulation/index.xml" rel="self" type="application/rss+xml"/><item><title>使用 gem5 模拟 MI300X，立省 10 万块？</title><link>https://zevorn.cn/posts/32/</link><pubDate>Mon, 28 Jul 2025 02:32:35 +0000</pubDate><guid>https://zevorn.cn/posts/32/</guid><description>前段时间社区的雾佬发了一篇 使用 gem5 模拟 MI300X 的知乎 1 ，正好我最近在验证 AMDGPU 的浮点运算精度，就想着对比一下 gem5 MI300X 的 model 浮点精度和真实硬件有没有什么差异。 这里推荐使用服务器或者工作站来运行 gem5，个人电脑资源可能不太够用。 主要参考雾佬的文章，以及官方提供的文档 Full System AM</description></item><item><title>浅析适用于 LLM 的 AI FPU 硬件的虚拟原型平台的浮点精度</title><link>https://zevorn.cn/posts/30/</link><pubDate>Wed, 16 Jul 2025 05:46:58 +0000</pubDate><guid>https://zevorn.cn/posts/30/</guid><description>本文首发于微信公众号: GTOC 业界经常使用量化的手段来提高大模型的训练和推理效率和节省成本，因此衍生了很多浮点精度和格式，比如 TF32、BF16、FP8、FP4 等。 在 AI 芯片的虚拟原型平台开发中，对于各类 FPU 硬件的 model 建模，一般采用软浮点的方式来模拟，常使用 C/C++ 来实现，在保证准确性的同时，性能也不会太差。 常见的模拟器</description></item></channel></rss>