米国と中国政府は、人工知能(AI)の安全性に関する新たな対話枠組みを設置することで合意した。両国はAI技術の急速な発展に伴うリスクを評価し、国際的な安全基準の策定に向けて協力を強化する方針だ。
対話枠組みの概要
両政府の高官が明らかにしたところによると、この枠組みでは、AIシステムの安全性評価、リスク管理、透明性の確保などが主な議題となる。また、AIの軍事利用やプライバシー侵害などの懸念事項についても議論を深める。
協力の背景
AI技術をめぐっては、米中両国が開発競争を繰り広げる一方、安全性の確保が国際的な課題となっている。特に、自律型兵器システムや偽情報拡散などのリスクに対処するため、国際的なルール作りが急務とされている。
- 両国は、AIの安全性に関する共同研究を推進する。
- 国際標準化機関での連携を強化する。
- 第三国のAI安全性向上を支援する可能性もある。
今回の合意は、米中首脳会談で合意された「AI安全性に関する共同声明」に基づくもの。両国は今後、実務者レベルの協議を定期的に開催し、具体的な協力内容を詰める予定だ。
専門家の見解
専門家は、今回の対話枠組み設置について「米中がAI安全性で協力する意義は大きい。両国が主導することで、国際的なAIガバナンスの進展が期待される」と評価する一方、「競争激化により、協力が形骸化するリスクもある」と指摘する。
今後の焦点は、両国が実際にどのような具体的措置を講じるか、また他の主要国を巻き込んだ多国間枠組みに発展するかどうかだ。



