<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Ai-Infra on zevorn.blog</title><link>https://zevorn.cn/tags/ai-infra/</link><description>Recent content in Ai-Infra on zevorn.blog</description><image><title>zevorn.blog</title><url>https://zevorn.cn/avatar.webp</url><link>https://zevorn.cn/avatar.webp</link></image><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Fri, 15 May 2026 09:40:07 +0000</lastBuildDate><atom:link href="https://zevorn.cn/tags/ai-infra/index.xml" rel="self" type="application/rss+xml"/><item><title>探讨 RISC-V 新提案：BF16 and Minimal OFP8 Vector Compute (Zvfbfa and Zvfofp8min)</title><link>https://zevorn.cn/posts/43/</link><pubDate>Fri, 15 May 2026 09:40:07 +0000</pubDate><guid>https://zevorn.cn/posts/43/</guid><description>原文信息 来源：RISC V 开发者社区 作者 / ID：zevorn 原文：https://ruyisdk.cn/t/topic/964 原发布时间：2025 08 07 摘要 文章讨论 RISC V 向量计算相关的新扩展提案，重点是 Zvfbfa 与 Zvfofp8min，覆盖 BF16 和 OCP OFP8 浮点格式在向量计算中的支持方式。 这篇和博客</description></item><item><title>为 QEMU softfloat 添加用于神经网络计算的浮点精度</title><link>https://zevorn.cn/posts/31/</link><pubDate>Sun, 20 Jul 2025 11:37:49 +0000</pubDate><guid>https://zevorn.cn/posts/31/</guid><description>QEMU 的 softfloat 源码位于 fpu/ 和 include/fpu/ 路径中，代码最初源自 Berkeley SoftFloat IEC/IEEE 浮点运算包的 2a 版本（SoftFloat 2a），后续经过 QEMU 项目贡献者修改。 目前我已经为 softfloat 添加了 tfloat32 和 float8e4m3 和 float8e5</description></item><item><title>浅析适用于 LLM 的 AI FPU 硬件的虚拟原型平台的浮点精度</title><link>https://zevorn.cn/posts/30/</link><pubDate>Wed, 16 Jul 2025 05:46:58 +0000</pubDate><guid>https://zevorn.cn/posts/30/</guid><description>本文首发于微信公众号: GTOC 业界经常使用量化的手段来提高大模型的训练和推理效率和节省成本，因此衍生了很多浮点精度和格式，比如 TF32、BF16、FP8、FP4 等。 在 AI 芯片的虚拟原型平台开发中，对于各类 FPU 硬件的 model 建模，一般采用软浮点的方式来模拟，常使用 C/C++ 来实现，在保证准确性的同时，性能也不会太差。 常见的模拟器</description></item></channel></rss>