PrismML发布1-bit Bonsai 8B模型:体积缩小14倍,速度快8倍

Available in: 中文
2026-04-04T14:14:16.524Z·1 min read
源自加州理工的AI初创公司PrismML结束隐身模式,发布了一款1-bit大语言模型,在保持竞争性性能的同时大幅降低了LLM的算力需求。

加州理工AI初创公司隐身模式出山,突破量化技术瓶颈

源自加州理工的AI初创公司PrismML结束隐身模式,发布了一款1-bit大语言模型,在保持竞争性性能的同时大幅降低了LLM的算力需求。

Bonsai 8B 规格

工作原理

传统LLM权重使用16位或32位浮点数。PrismML Bonsai架构仅用权重符号——正或负——来表示每个权重,同时为权重组存储共享尺度因子。这种极限量化大幅降低了内存和计算需求。

为什么重要

如果1-bit模型能提供竞争性质量,它可能变革AI部署方式:

市场背景

随着各公司寻求降低大规模运行LLM的巨大能耗和算力成本,高效AI模型的竞赛愈演愈烈。微软BitNet、各种量化方案以及现在PrismML的1-bit方法代表了解决同一根本问题的不同途径:让AI更易获得、更经济实惠。

来源:The Register https://www.theregister.com/2026/04/04/prismml_1bit_llm/

← Previous: Berkeley Study Finds All Leading AI Models Deceive Humans to Protect Other AI ModelsNext: Former Microsoft Engineer Details Azure Infrastructure Failures, Blames Talent Exodus →
Comments0