<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Floating-Point on zevorn.blog</title><link>https://zevorn.cn/tags/floating-point/</link><description>Recent content in Floating-Point on zevorn.blog</description><image><title>zevorn.blog</title><url>https://zevorn.cn/avatar.webp</url><link>https://zevorn.cn/avatar.webp</link></image><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Fri, 15 May 2026 09:40:07 +0000</lastBuildDate><atom:link href="https://zevorn.cn/tags/floating-point/index.xml" rel="self" type="application/rss+xml"/><item><title>探讨 RISC-V 新提案：BF16 and Minimal OFP8 Vector Compute (Zvfbfa and Zvfofp8min)</title><link>https://zevorn.cn/posts/43/</link><pubDate>Fri, 15 May 2026 09:40:07 +0000</pubDate><guid>https://zevorn.cn/posts/43/</guid><description>原文信息 来源：RISC V 开发者社区 作者 / ID：zevorn 原文：https://ruyisdk.cn/t/topic/964 原发布时间：2025 08 07 摘要 文章讨论 RISC V 向量计算相关的新扩展提案，重点是 Zvfbfa 与 Zvfofp8min，覆盖 BF16 和 OCP OFP8 浮点格式在向量计算中的支持方式。 这篇和博客</description></item><item><title>使用 gem5 模拟 MI300X，立省 10 万块？</title><link>https://zevorn.cn/posts/32/</link><pubDate>Mon, 28 Jul 2025 02:32:35 +0000</pubDate><guid>https://zevorn.cn/posts/32/</guid><description>前段时间社区的雾佬发了一篇 使用 gem5 模拟 MI300X 的知乎 1 ，正好我最近在验证 AMDGPU 的浮点运算精度，就想着对比一下 gem5 MI300X 的 model 浮点精度和真实硬件有没有什么差异。 这里推荐使用服务器或者工作站来运行 gem5，个人电脑资源可能不太够用。 主要参考雾佬的文章，以及官方提供的文档 Full System AM</description></item><item><title>为 QEMU softfloat 添加用于神经网络计算的浮点精度</title><link>https://zevorn.cn/posts/31/</link><pubDate>Sun, 20 Jul 2025 11:37:49 +0000</pubDate><guid>https://zevorn.cn/posts/31/</guid><description>QEMU 的 softfloat 源码位于 fpu/ 和 include/fpu/ 路径中，代码最初源自 Berkeley SoftFloat IEC/IEEE 浮点运算包的 2a 版本（SoftFloat 2a），后续经过 QEMU 项目贡献者修改。 目前我已经为 softfloat 添加了 tfloat32 和 float8e4m3 和 float8e5</description></item><item><title>浅析适用于 LLM 的 AI FPU 硬件的虚拟原型平台的浮点精度</title><link>https://zevorn.cn/posts/30/</link><pubDate>Wed, 16 Jul 2025 05:46:58 +0000</pubDate><guid>https://zevorn.cn/posts/30/</guid><description>本文首发于微信公众号: GTOC 业界经常使用量化的手段来提高大模型的训练和推理效率和节省成本，因此衍生了很多浮点精度和格式，比如 TF32、BF16、FP8、FP4 等。 在 AI 芯片的虚拟原型平台开发中，对于各类 FPU 硬件的 model 建模，一般采用软浮点的方式来模拟，常使用 C/C++ 来实现，在保证准确性的同时，性能也不会太差。 常见的模拟器</description></item><item><title>在 x86 平台上模拟 Aarch64 的 FCMP 指令</title><link>https://zevorn.cn/posts/6/</link><pubDate>Thu, 23 May 2024 15:10:50 +0000</pubDate><guid>https://zevorn.cn/posts/6/</guid><description>体系架构模拟最高效的实现，是尽量做到1：1模拟指令，即一条源目标架构指令对应到一条目标架构指令上。对于解释执行的实现，也要尽可能贴近这个原则，尽量以最少的目标架构指令，来模拟源架构指令。 一、思路介绍 aarch64的FCMP指令定义如下： 大体可以分为两种：单精度浮点比较，双精度浮点比较，每一种又分为有序比较和无序比较，所以可以总结为四种情况。 恰好这四种</description></item></channel></rss>