當地時間2月6日,英國政府正式回應了去年的AI監管諮詢。當時英國科學、創新和技術部 (DSIT) 發佈《人工智慧監管白皮書》,表示對AI傾向於寬鬆監管,並向公眾徵求意見。
這份一年後的回應,重點放在提供研發支持上。DSIT表示,將斥資超過 1 億英鎊(約8.15億人民幣)建立九個AI研究中心,並對監管機構進行AI培訓。
具體到資金分配上,近9000萬英鎊將用於在英國各地大學建立九個研究中心。這些“本土AI中心”專注於醫療、化學和數學等領域,並計畫與美國建立合作夥伴關係。
監管機構將獲得1000萬英鎊的額外資金,用於執行AI監管、適應AI發展,比如開發AI工具來監測電信、金融等領域的風險。
還有1900萬英鎊將投資21個“創新的、值得信賴和負責任的人工智慧專案”,開發可用於提高生產力的AI工具。
從研發資金的劃分比例可以看出,經費主要用來支持技術研究,對監管機構的投入比較微薄。去年4月,英國政府就已經承諾投入1億英鎊成立一個AI特別工作組,關注基礎模型的安全研發。當時財政大臣Jeremy Hunt承諾,未來5年內將花費超過9億英鎊,用於人工智慧和超級電腦的研發。
目前幾家全球重要的AI研究機構落在英國,包括Google DeepMind、OpenAI的首個海外分部。此外,Statista2023年數據顯示,英國是全球前十的AI人才移民地,吸納的AI技術移民數量超過美國。
本次回應的另一重點是再次強調“不急於為人工智能立法”,也不會冒險實施“很快就會過時的規則”,而是利用現有的法律、監管資源來處理問題。儘管外界普遍認為這是因為英國政府即將換屆選舉,此時無法推動AI立法,但不可否認的是,英國一直都有打造“監管窪地”的想法。
去年3月DSIT發表的白皮書明確指出,政府對AI的態度傾向於“監管AI使用,而不是技術本身”。因此不會為AI系統分配風險級別,而是具體情況具體討論。而海峽對岸的歐盟各國,近期達成一致協議的《人工智慧法案》,核心便於基於風險的分級系統——也就是將AI系統分為不可接受的風險以及高、中、低風險,並設置不同級別的監管要求。
這讓英國和歐盟在監管計畫上有明顯差異。DSIT認為,“當海外人工智慧企業在英國建立業務時,我們支持創新的方法可以起到有力的激勵作用。”
值得一提的是,在本次回應中,英國政府也首次提出了約束性要求,初步要求最先進、通用目的的AI基礎模型,能夠保證安全可靠。此外,為了提高“靈活監管”的透明性和確定性,DSIT還要求幾個主要監管機構,包括通信管理局、競爭與市場管理局等,在4月30日公佈管理AI的具體辦法,為企業和社會注入信心。
“這些措施與去年4月我們投資1億英鎊建立AI特別工作組,以及去年11月布萊切利會議展現的全球領導力一脈相承。英國在人工智慧監管上的創新方法,將使我們在AI安全、AI發展兩個方面,都處於世界領先地位。”DSIT在報告中寫道。
來源:中國21世紀經濟報導