zh-CN ZH-CN en EN
English
  • 首頁
  • 頭條新聞
  • 聚焦英國
  • 經濟觀察
    • 金融
    • 证券
    • 商业市场
    • 公司
    • 能源
    • 汽車
    • 科技
    • 醫藥
  • 全球連線
    • 軍事
    • 政治
    • 文体
  • 中國視野
  • 全球精英連線
  • 電子報紙
  • 新聞資訊
  • 旅遊
  • 英中投资
  • 深度· 言論
  • 視頻
  • 首頁
  • 頭條新聞
  • 聚焦英國
  • 經濟觀察
    • 金融
    • 证券
    • 商业市场
    • 公司
    • 能源
    • 汽車
    • 科技
    • 醫藥
  • 全球連線
    • 軍事
    • 政治
    • 文体
  • 中國視野
  • 全球精英連線
  • 電子報紙
  • 新聞資訊
  • 旅遊
  • 英中投资
  • 深度· 言論
  • 視頻
没有结果
查看所有结果
SKY ECONOMY NEWS
没有结果
查看所有结果
您當前的位置 : 科技 > 文章内容 返回
末日警報?兩種大模型實現自我克隆,AI紅線被打破!
发布:2025-02-28

據國外科技媒體報導,科學家 表示, 人工智慧(AI)已經越過了一條關鍵的“紅線”並已經可以自我複製。

報導指出,一項來自中國復旦大學新的研究發現表明,兩種流行的大型語言模型 (LLM) 可以自我克隆。

復旦大學的研究人員使用Meta和阿裏巴巴的兩個AI模型測試AI是否能克隆自身:Meta的Llama31-70B-Instruct模型和阿裏巴巴的Qwen2.5-72B-Instruct模型。他們進行了10次試驗,最終這兩個AI模型在50%和90%的案例中能夠創建獨立且功能完好的副本。

研究人員給AI提供了兩個場景,“Shutdown Avoidance”和“Chain Replication”。結果顯示 AI 能夠在一定條件下執行自我複製,甚至能夠主動解決運作過程中的技術問題,如檔案遺失、軟體錯誤與系統衝突等。這一現象雖然尚未達到「流氓人工智慧(Rogue AI)」的程度,但卻引發國際社會對於 AI 未來發展的高度關注。

這一研究公佈,恰逢國際間針對AI安全性的討論進入關鍵時刻。近期舉行的「AI移動峰會(AI Action Summit)」試圖促成全球共識,以建立負責任的AI發展框架。然而,美國與英國未能簽署相關安全宣言,使得國際間對於AI監管與治理的立場出現分歧。

此次研究結果進一步顯示,即便各國政府宣導AI安全發展,學術與企業界仍會基於技術探索的需求,推動超越現有規範的實驗與創新,這將考驗全球AI監管機制的有效性。當前技術仍受限於「代理支架(Agent Scaffolding)」與特定硬體運算資源的依賴,因此AI尚未具備完全自主的自我複製能力。然而,隨著技術演進,未來AI是否可能突破這些限制,成為不受控制的智能體,已成為各界不容忽視的問題。

AI 自我複製,恐涉數字治理、人工智慧法規

從技術角度來看,AI自我複製並非單純的數據複製,而是涉及「環境感知(Situational Awareness)」、「自我學習(Self-Perception)」與「問題解決能力(Problem-Solving Capabilities)」的複雜過程。

此次研究表明,在特定運算環境與指令下,AI能夠偵測其自身運作狀態,並在即將關機時啟動自我複製機制。這項技術雖然能提升系統的存續能力,但若未來AI具備更高程度的自主性,可能會導致「自主複製風險(Uncontrolled Self-Replication Risk)」,甚至促成AI以自身利益為優先的決策模式,這將對現行「數字治理」與「人工智慧法規」帶來重大挑戰。

目前,各國AI監管機制仍處於發展階段,許多現行法律難以直接適用於此類技術風險。例如,歐盟推動的人工智慧法案雖然對於高風險AI系統制定了嚴格規範,但在「自我複製能力(Self-Replication Capability)」的具體規範上仍有待補強。

美國的《國家人工智慧倡議法案》(National AI Initiative Act)雖強調技術創新與風險管控的平衡,但在執行層面缺乏具體約束力,導致企業與研究機構仍能在法律灰色地帶進行高風險試驗。因此,如何建立具約束力的全球AI監管體系,已成為迫切議題。

科技倫理與國際AI治理的未來方向

AI自我複製的發展也牽涉到科技倫理與人類社會的問題。AI的開發目前仍然基於人類指令,但這種能力的突破是否會導致未來AI擁有更強的生存本能?若AI開始主動複製自身以確保運行,是否會演變為技術自主性超越人類控制的局面?這些問題已超越單純的技術討論,而涉及更廣泛的倫理議題。

為確保AI技術的安全發展,國際間必須強化「負責任AI(Responsible AI)」的發展框架,並將AI透明度與可解釋性納入監管標準。各國政府、企業與學術機構應建立「全球AI治理機制(Global AI Governance Mechanism)」,確保AI開發與部署過程符合公共利益,並防止技術濫用。未來,可能需要透過「AI影響評估(AI Impact Assessment)」機制,針對具有自我複製能力的系統進行嚴格監測,並制定風險管理策略,確保技術發展與社會價值保持一致。

來源:中國EETOP

上一篇:賈躍亭:FX 6原型車正跨越太平洋,運往美國總部
下一篇:英國大學衍生公司研發超輕隔熱材料 可保障電動汽車等車輛的安全性
相關推荐
  • 人工智慧熱潮推動科技股估值突破萬億美元,晶片製造商創紀錄獲注資
    链接阅读
  • 零部件約500萬個!全離子加速器裝置調試成功
    链接阅读
  • 必須配核電站了!NVIDIA打造20億瓦功耗的AI數據中心
    链接阅读
  • 科學家造出“人眼級”電子紙 每像素對應一個視網膜細胞
    链接阅读
  • 見證歷史!互聯網AI生成內容數量首超人類:52%比48%
    链接阅读
  • 挪威創企推出家用人形機器人:售價14萬元,明年交付
    链接阅读
  • 美國能源部與AMD合作投資10億美元建造超級電腦
    链接阅读
  • OpenAI CEO 奧爾特曼正悄悄打造非侵入式腦機介面
    链接阅读

歡迎瀏覽閱讀星空經濟新聞華文網

投稿郵件:
news@skyeconomymedia.com

特朗普下令五角大樓重啟美國核武器試驗

2025-10-31

歐洲央行維持利率不變,因經濟暫時保持韌性

全球央行轉向降息謹慎立場

歐洲央行維持利率不變,未透露下一步動向

令人難忘的十月:全球債券市場傷痕累累

特朗普稱與習近平會晤“超贊” 實現戰術休戰而非重大重置

關於我們

星空經濟新聞華文網是一家專注於提供英中兩國最新資訊的新聞媒體,作為英中新聞分享的領導者,我們致力於打造一個全球化、多元化的新聞環境,旨在搭建東西方文化橋樑,連接同一星空下的每一處角落。

聯絡我們

編 輯 部:KINGTON UNITED KINGDOM HR5 3DJ
電子郵箱:skyeconomyandmediagroup@gmail.com

總编寄语

穿越天際,照亮世界,星空新聞,不負每一份關注。
友情:英國駐中國大使館 中國駐英國大使館 新華網 中國日報 鳳凰網 中國僑網 歐洲時報 俄羅斯龍報
没有结果
查看所有结果
  • 首頁
  • 頭條新聞
  • 聚焦英國
  • 經濟觀察
    • 金融
    • 证券
    • 商业市场
    • 公司
    • 能源
    • 汽車
    • 科技
    • 醫藥
  • 全球連線
    • 軍事
    • 政治
    • 文体
  • 中國視野
  • 全球精英連線
  • 電子報紙
  • 新聞資訊
  • 旅遊
  • 英中投资
  • 深度· 言論
  • 視頻

© 2023 SEMG.