<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Hardware on zevorn.blog</title><link>https://zevorn.cn/tags/hardware/</link><description>Recent content in Hardware on zevorn.blog</description><image><title>zevorn.blog</title><url>https://zevorn.cn/avatar.webp</url><link>https://zevorn.cn/avatar.webp</link></image><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Wed, 16 Jul 2025 05:51:32 +0000</lastBuildDate><atom:link href="https://zevorn.cn/tags/hardware/index.xml" rel="self" type="application/rss+xml"/><item><title>浅析适用于 LLM 的 AI FPU 硬件的虚拟原型平台的浮点精度</title><link>https://zevorn.cn/posts/30/</link><pubDate>Wed, 16 Jul 2025 05:46:58 +0000</pubDate><guid>https://zevorn.cn/posts/30/</guid><description>本文首发于微信公众号: GTOC 业界经常使用量化的手段来提高大模型的训练和推理效率和节省成本，因此衍生了很多浮点精度和格式，比如 TF32、BF16、FP8、FP4 等。 在 AI 芯片的虚拟原型平台开发中，对于各类 FPU 硬件的 model 建模，一般采用软浮点的方式来模拟，常使用 C/C++ 来实现，在保证准确性的同时，性能也不会太差。 常见的模拟器</description></item></channel></rss>