Google 推出 TurboQuant AI 記憶體壓縮演算法
Google 推出 TurboQuant AI 記憶體壓縮演算法,宣稱可將 LLM 工作記憶體需求縮減 6 倍並大幅降低營運成本,但目前缺乏獨立學術驗證。
Google 推出 TurboQuant AI 記憶體壓縮演算法,宣稱可將 LLM 工作記憶體需求縮減 6 倍並大幅降低營運成本,但目前缺乏獨立學術驗證。
AI 程式設計平台 Cursor 承認其最新模型採用 Moonshot AI 的 Kimi 技術,此舉在西方科技界引發了關於地緣政治敏感性與數據安全的廣泛關注。
小米發布了擁有兆級參數的 MiMo-V2-Pro 模型,而 AI 初創公司 MiniMax 則推出了具備自我演進能力的 M2.7。這兩款模型在效能上直逼 GPT-5.2,且調用成本遠低於美國競爭對手。這標誌著中國 AI 技術在 2026 年實現了質的飛躍,並將引發全球 AI 市場的價格戰與技術洗牌。
大英百科全書與韋伯字典起訴 OpenAI,指控其 GPT-4 模型未經授權「背誦」並重現了近 10 萬篇版權文章。原告認為 OpenAI 的 AI 已成為其內容的市場替代品,威脅到訂閱制商業模式。此案將成為 AI 平法使用與版權保護之間的重要判例。
Andrej Karpathy 提出 AI「九的進軍」理論,強調從 90% 到 99.999% 可靠性的工程難度。與此同時,LangChain 執行官與 Google 專家正致力於「支架工程」與持久記憶技術。MIT 的新技術據傳可壓縮 記憶體 50 倍,這些突破正試圖解決 AI 代理從演示轉向生產環境的瓶頸。
MIT 研究人員推出名為「Attention Matching」的技術,可將 LLM 的 KV 快取記憶體消耗降低 50 倍而不失準確度。結合 Andrej Karpathy 對 AI 可靠性的觀察,這標誌著 AI 產業正從「功能演示」轉向追求高穩定性與低部署門檻的生產階段。
MIT 研究人員發表了 Attention Matching 技術,能將大語言模型的 KV 快取記憶體需求降低 50 倍,且不失精度。同時 Google 開源了基於 Gemini 3.1 的持續性記憶體代理,標誌著 AI 從外部向量資料庫轉向原生記憶體工程。