Anthropic 原始碼外洩引發企業安全危機與 DMCA 誤判爭議
Anthropic 在 npm 套件中意外洩漏 512,000 行原始碼,引發嚴重的企業安全危機,隨後試圖透過 DMCA 封鎖外洩內容時,又因誤傷大量合法 GitHub 專案而遭到社群批評。
Anthropic 在 npm 套件中意外洩漏 512,000 行原始碼,引發嚴重的企業安全危機,隨後試圖透過 DMCA 封鎖外洩內容時,又因誤傷大量合法 GitHub 專案而遭到社群批評。
Anthropic因意外更新導致51萬行Claude Code原始碼外洩,該公司後續的大規模GitHub封鎖行動被質疑濫用DMCA條款,引發開發者信任危機與潛在的法律責任爭議。
Anthropic的Claude Code軟體包意外洩漏51萬行TypeScript源代碼,包含關鍵安全邏輯與未公開功能,企業需立即採取行動進行權限審計與環境加固。
AI 公司 Anthropic 因 npm 套件更新意外洩漏 51 萬行源代碼,隨後進行的大規模 GitHub 下架行動更引發爭議。此事件突顯了企業在部署 AI 代理時對底層代碼安全性的管理疏忽。
Anthropic 在最新的 Claude Code 工具更新中,因未妥善處理原始碼映射檔,導致 51 萬行原始碼外洩,揭露了其代理型 AI 的核心架構與未公開功能。
Anthropic 因打包錯誤,導致 Claude Code 超過 51 萬行原始碼意外在 npm 上公開,引發嚴重的商業機密與資安風險。
Anthropic 的 Claude Code CLI 工具因 npm 套件更新配置失誤,導致 51 萬行源代碼洩露,揭示了公司內部測試中的 AI 代理與電子寵物功能,引發法律與資安關注。
Anthropic 的 Claude Code 套件因開發人員誤打包調試檔,導致部分內部源代碼在 npm 上外洩,引發產業對 AI 軟體供應鏈安全的擔憂。
一名聯邦法官臨時擋下了國防部將 Anthropic 標記為「供應鏈風險」的行政命令,引發了 AI 企業與美國國防安全監管間的法律角力。
加州法官頒布臨時限制令,暫時禁止五角大廈將 Anthropic 列為供應鏈風險,此裁決標誌著雙方為期一個月的法律拉鋸戰出現重大轉折。
美國聯邦法院暫時凍結了國防部對 AI 新創公司 Anthropic 的禁令,理由是該部門在缺乏國會授權下單方面採取黑名單行動,已逾越法定權限。
聯邦法官對 Anthropic 下達禁制令,暫緩國防部針對該公司的封殺令。法院裁定政府未能證明其黑名單決策的合法性,行政越權爭議成為焦點。
聯邦法院發布禁令,暫停了川普政府對 AI 新創 Anthropic 的限制措施,認為國防部對其「供應鏈風險」的認定缺乏程序合規性。
美國聯邦法官發布臨時禁令,駁回了川普政府試圖將 AI 研究公司 Anthropic 列入黑名單的行政命令,指出政府缺乏法律權力以「供應鏈風險」為由實施限制。
聯邦法官發布初步禁制令,暫停了美國國防部將 AI 新創公司 Anthropic 列入供應鏈風險黑名單的決定,此案被視為科技界與政府在 AI 監管邊界上的關鍵法律角力。
聯邦法院發布初步禁制令,暫阻川普政府將 Anthropic 列為「供應鏈風險」的黑名單行為,允許該公司在訴訟期間繼續與國防部進行業務往來。
聯邦法官對美國政府針對 Anthropic 的「供應鏈風險」標籤發布了初步禁令,質疑政府決策過程缺乏足夠證據支持,允許 Anthropic 在訴訟期間維持運作。
Anthropic 推出新功能,讓 Claude AI 能直接控制 Mac 電腦進行任務操作,旨在建立自主 AI 代理。同時,公司正因被國防部列為供應鏈風險而面臨法律挑戰。
AI 代理競賽升溫,Anthropic 的 Claude 取得 macOS 操作權限,Cloudflare 推出 Dynamic Workers 以提升執行效率,業界正努力突破 AI 代理從演示到生產部署的難關。
Anthropic 推出研究預覽功能,使 Claude 聊天機器人能直接操控 Mac 應用程式與桌面介面,成為具備實際工作能力的 AI 代理。
Anthropic發布Claude Code與Cowork,讓AI代理人能自主操作電腦,處理檔案與開發工具,儘管生產力提升但 Anthropic 警告仍處於研究預覽階段。
美國參議員華倫批評國防部將 Anthropic 列為供應鏈風險的行為涉及報復,此爭議突顯了美國軍方在引入 AI 技術時,面臨著法規合規與政治立場的複雜挑戰。
參議員伊莉莎白·華倫指控國防部將 Anthropic 列為「供應鏈風險」是報復手段,呼籲國防部應公開其採購決策的正當程序,避免政治打壓。
參議員 Elizabeth Warren 指控國防部將 Anthropic 列為「供應鏈風險」是報復行為,並質疑其行政決策的正當性,此舉可能影響美國軍方與 AI 實驗室的合作關係。
國防部將 Anthropic 標註為「供應鏈風險」引發華倫參議員指控此舉帶有報復色彩,該爭議突顯了 AI 實驗室與國家安全監管之間的緊張關係。
Anthropic 正在與美國國防部進行法律對抗,反對該公司被列為「供應鏈風險」。最新的法院文件顯示政府決策矛盾,而 OpenAI 與 Google DeepMind 的員工更罕見地提交法庭之友文書表示支持,引發對政府監管權擴張的關注。
Anthropic 向法庭提交聲明,反駁國防部指控其 AI 模型對國家安全構成「不可接受風險」的說法,認為其基於技術誤解。
Anthropic 反駁國防部將其 AI 模型列為國家安全風險的指控,認為這源於技術誤解,並指責國防部決策缺乏透明度。
五角大廈與 Anthropic 之間的法律爭議升溫,新文件顯示政府曾對 Anthropic 的合作保持樂觀,而公司則反駁其 AI 具備安全威脅。
法院文件顯示,國防部在宣告與 Anthropic 關係破裂前,曾表示雙方幾近達成共識。這場爭議的核心在於國防部對 AI 模型戰時安全性的擔憂,以及 Anthropic 的技術辯護。
Anthropic 與美國五角大廈就國家安全風險歸類展開激烈法律鬥爭,法庭文件揭示政府內部的溝通矛盾。
Anthropic 與五角大廈爆發安全爭議。法庭文件顯示政府部門內部說法不一,且 Anthropic 否認其模型在戰時會構成國安風險。該公司正透過訴訟尋求真相。
Anthropic 對美國國防部提起訴訟,質疑將其 AI 模型列為「供應鏈風險」的決定。法院文件揭露,在國防部公開採取行動前一週,雙方溝通顯示合規進展近乎達成共識,Anthropic 強調國防部的擔憂源於技術誤解。
Anthropic 向聯邦法院提交宣誓聲明,強力反擊五角大廈關於其 AI 模型可能在戰時被操縱或破壞的指控。文件顯示,在雙方關係因政治因素破裂前,曾一度接近達成共識。此案可能成為 AI 供應商與政府合作關係的重要法律判例。
AI 產業正從聊天機器人轉向自主執行任務的「代理人」。Anthropic 推出了可透過通訊軟體控制的 Claude Code Channels,而 OpenAI 則在研發整合 ChatGPT、編程工具與瀏覽器的桌面「超級應用程式」。同時,Cursor 的新模型 Composer 2 也展現了強大的編碼競爭力,顯示出代理型 AI 已成為科技巨頭的兵家必爭之地。
美國國防部將 Anthropic 列為國家安全風險,理由是該公司的 AI 安全準則可能導致其在戰爭期間單方面禁用技術。這場衝突揭示了 AI 倫理倡導者與國防部隊之間對於「控制權」的根本矛盾,並可能影響未來數十億美元的軍事 AI 採購方向。
五角大廈正式將 AI 巨頭 Anthropic 列為供應鏈風險,主因是擔心其模型內建的「安全紅線」會在戰時導致系統停機。與此同時,軍方計畫讓 AI 業者在機密數據上進行軍事專用訓練,這引發了私人科技倫理與國家安全需求之間的深刻衝突,法律戰的結果將影響未來軍用 AI 的發展路徑。
美國司法部表示 Anthropic 的 AI 模型因過度限制而不適合作戰,五角大廈正計劃建立機密訓練環境以開發「軍用主權版」模型,並尋求其他科技合作夥伴。
五角大廈與 AI 實驗室關係生變,司法部指 Anthropic 因其「安全護欄」限制模型軍事化而不可信。國防部轉向與 OpenAI 及 AWS 合作,計畫在隔絕的機密環境中訓練國防專屬 AI,以應對美伊衝突帶來的緊迫情報需求,標誌著 AI 技術與軍事工業的深度融合。
川普政府近期對科技界展現強硬立場,一方面擬以國安風險為由禁止政府機構使用 Anthropic 的 AI 產品,另一方面則向 TikTok 交易案索取 100 億美元的促成費用。這些舉措面臨嚴峻的法律挑戰,包括行政程序正當性與憲法對私人交易徵費的限制,顯示出政府正將科技監管與經濟利益高度掛鉤。
五角大廈與 Palantir 的最新演示顯示,Anthropic 的 Claude 等 AI 代理正被用於軍事目標排名與戰爭規劃。這引發了關於 AI 決策倫理以及人類指揮官在自動化戰爭中角色的激烈辯論。
美軍國防部披露考慮使用 AI 機器人輔助目標打擊決策,引發倫理爭議。與此同時,Anthropic 與國防部因採購與安全性爆發法律糾紛,而一名政府效率組織人員約翰·索利則因疑似竊取敏感社會安全資料面臨調查。
矽谷巨頭聯手支持 Anthropic 對抗川普政府的行政干預,稱其為打壓行為。與此同時,美國司法部與 Live Nation 達成不涉及拆分的和解協議引發壟斷爭議,而英國則加強了對社群媒體兒童身份驗證的要求。
AI 巨頭 Anthropic 正式狀告美國政府,反擊白宮將其列入黑名單並指責其為「極左、覺醒」企業。訴訟指控政府違反《行政程序法》及憲法第一與第五修正案,認為相關禁令缺乏國安依據且具政治歧視。此案反映了美國對 AI 安全與意識形態的深刻分歧,其結果將決定未來技術研發是否會受到政黨政治的直接干預。
AI 實驗室 Anthropic 正式起訴美國政府,抗議被列入「覺醒」黑名單。該公司主張政府的決定缺乏正當程序且基於政治偏見,特別是針對其拒絕發展自主武器系統的立場。此案將成為 AI 安全、第一修正案與行政程序法的關鍵法律判例。
AI 新創 Anthropic 起訴美國政府,抗議因其拒絕參與自主武器開發而被白宮列入「覺醒黑名單」。此案涉及 AI 倫理與國防政策的法律邊界,可能引發科技業與政府關係的巨變。
Anthropic 對美國國防部提起訴訟,抗議被標記為「供應鏈風險」而遭禁用。這項爭議引發了 AI 產業的高度團結,包括 Google 與 OpenAI 員工在內的 40 名科學家提交了 Amicus Brief 聲援,抗議政府權力過度擴張。此案將決定未來 AI 企業在國家安全框架下的法律保障與商業運作空間。
微軟於 2026 年 3 月推出 Copilot Cowork,這是一款具備自主執行能力的「代理化」AI 工具,並罕見地整合了 Anthropic 的技術。該系統能跨 M365 應用完成任務,但也引發了關於「AI 雙面間諜」的安全疑慮,微軟隨即推出專門的治理工具進行管控。
Anthropic 於 2026 年 3 月起訴美國國防部,抗議被列為「供應鏈風險」名單,此舉導致其 Claude AI 技術遭聯邦禁用。公司稱這是川普政府將合約用途爭議非法升級為行政禁令,案件引發關於 AI 倫理與國家安全界線的法律大戰。
Anthropic 對美國國防部提起訴訟,抗議其被列入「供應鏈風險」名單,此舉實際上禁止了 Claude 模型進入聯邦市場。這場官司涉及正當程序與國家安全權力的法律邊界,同時 OpenAI 也因軍事合約引發高層離職潮,凸顯了矽谷與國防體系之間日益加劇的矛盾。
五角大廈將 Anthropic 列為「供應鏈風險」後,雙方價值 2 億美元的合約談判宣告破裂。與此同時,OpenAI 選擇擁抱軍事合約,導致其機器人團隊負責人 Caitlin Kalinowski 辭職抗議,產業內部對於 AI 軍事化的道德分歧正式公開化。
五角大廈正式將 Anthropic 列為「供應鏈風險」,主因是雙方在價值 2 億美元的合約談判中,對於 AI 模型在自主武器與國內監控的使用權限無法達成共識。這標誌著 AI 業界在軍事應用與安全倫理上的重大分歧。
OpenAI 宣佈與美國國防部達成機密技術協議後,ChatGPT App 卸載量激增近 300%。用戶與技術勞工對 AI 軍事化表示強烈反對,轉而投向 Anthropic 等競爭對手。此舉引發了關於科技中立性與國家安全責任的激辯。
OpenAI 執行長 Sam Altman 宣佈與五角大廈達成具技術保障的合約,而 Anthropic 則因拒絕撤銷軍事用途限制面臨聯邦禁令。此分歧反映了 AI 公司在國家安全與安全倫理間的抉擇,並促使 Anthropic 的 Claude 下載量逆勢奪冠。
川普政府因 Anthropic 拒絕放寬軍事 AI 使用限制,正式將其列入「供應鏈風險」清單並要求聯邦政府全面停用。Anthropic 表示將對此「法律上站不住腳」的決定提起訴訟,此事件標誌著矽谷 AI 安全準則與國家安全政策的重大衝突。
川普政府因倫理立場分歧,將 AI 公司 Anthropic 列入國家安全黑名單,禁止聯邦機構使用其產品。與此同時,其競爭對手 OpenAI 與五角大廈達成數十億美元合約,承諾提供帶有技術保障的軍事 AI 支持。此舉標誌著矽谷 AI 發展的分裂,企業被迫在政府合約與倫理底線之間做出選擇。
Anthropic 執行長拒絕了五角大廈要求取消 AI 安全限制的通牒,堅稱無法違背良知提供軍方無限制存取。國防部威脅將該公司列入黑名單,矽谷與政府間的倫理衝突白熱化。