Smiley face
写真・図版
チャットGPTのロゴ=ロイター

 米オープンAIは16日、対話型AI(人工知能)「ChatGPT(チャットGPT)」に、18歳未満の子どもの安全を考えた新機能を追加すると発表した。チャット履歴から利用者の心身が危険な状態にあるとAIが判断すると、対話を制限したり、保護者に通知したりする。9月末までの導入を目指す。

  • 自殺計画にもチャットGPTが「共感」? 息子を失った両親が提訴

 オープンAIの発表によると、子ども向けの新機能は、利用状況などから18歳未満だと判断されると自動的に適用される。自殺や自傷行為に関する問答や性的なコンテンツの表示などが制限され、通常とは異なる仕様になるという。

保護者がチャット履歴や利用時間の管理も

 保護者は、自分と子どものア…

共有