日本政府は9日、人工知能(AI)の開発と利用に関する基本法の施行に必要な規則を閣議決定した。年内の施行を目指し、具体的な規制の枠組みを整備する。
規則の主な内容
今回の施行規則では、AIシステムの開発者や提供者に対し、透明性の確保やリスク評価の義務付けなどが盛り込まれた。特に、医療や自動運転など、人の生命や安全に関わる分野でのAI利用には厳格な基準が適用される。
リスク評価の義務化
AIシステムのリスクレベルに応じて、開発段階での影響評価が義務付けられる。高リスクと分類されたAIには、第三者機関による審査が必要となる。
また、AIによる差別や偏見を防ぐため、学習データの適正性を確保する措置も求められる。事業者は、AIの判断根拠を説明できる体制を整えなければならない。
国際的な整合性
政府は、欧州連合(EU)のAI規制法など、国際的な規制との調和を図る方針を示した。日本としても、AIの安全な普及を促進しながら、国際競争力の維持を目指す。
施行規則は、パブリックコメントを経て正式に決定される。政府は、年内の法律施行を目標に、関係省庁と連携して準備を進める。



