生成AI(人工知能)を中央省庁が業務に使う際の指針案を、政府が28日策定した。リスク判定の基準や、契約時の確認事項などをまとめたほか、相談窓口も設ける。国民の権利侵害などのリスクを管理しつつ、業務の効率化や利便性向上のためAIの積極利用を進める。5月をめどに運用を始める。
「調達・利活用ガイドライン」案では、業務の性格や機密情報の有無など四つのリスク軸を示した。「リスクが高い」とした例には、人権や安全などが関係する「過失が重大な影響を及ぼす可能性のある業務」や、「学習データに機密情報や個人情報が含まれる場合」などをあげる。
そのうえで、調達や契約の際のチェック項目、問題発生時の対応フローも盛り込んだ。また各省庁に、リスク管理を担う審議官級のAI統括責任者(CAIO)を置くほか、デジタル庁に相談窓口を設ける。デジ庁内に外部有識者によるアドバイザリーボードも設置し、政府への助言や指針の見直しを行う。
政府内ではすでにAI利用が…