AI 2026 AI 推理成本雪崩:BitNet 与 1-bit LLM 如何让“本地运行万亿模型”成为可能? 引言:告别“浮点运算”的暴政在 2024 年,我们还在讨论如何通过 H100 显存扩容来塞下更大的模型,还在为几千美元一天的推理成本感到肉痛。然而,进入 2026 年,大模型(LLM)的底层逻辑发生了一次地动山摇的变革。这一变革的代号...