メニュー

オープンAI、安全対策を説明=元幹部の批判受け

米オープンAIのロゴマーク
〔写真説明〕米オープンAIのロゴマーク(時事通信社)

 【シリコンバレー時事】生成AI(人工知能)「チャットGPT」を手掛ける米オープンAIは21日、安全対策に関する説明を公表した。10の取り組みを示し、投資を増やしていると強調した。高度な安全対策を担っていた幹部が退社した際、経営陣が安全より製品開発を優先させていると批判したことを受け、釈明に動いた格好だ。

 オープンAIは、人間を上回る「超知能」の登場を見据え、昨年編成したばかりの「スーパーアラインメント」チームを解体。この責任者だったヤン・ライク氏が14日に退社を表明し、X(旧ツイッター)上で「ここ数年、安全文化は後回しにされてきた」と指摘していた。 

 21日の発表では、AIの基盤モデルを公開する前に、70人以上の外部専門家を交え安全性を検証しており、リスクが一定水準を下回るまで公開していないと説明した。AIを人間の意図から外れないようにする「アラインメント」の技術にも継続投資していると強調した。

 オープンAIは、同チーム編成時に2027年までコンピューターなどの「計算資源」の20%をアラインメントの研究・開発に充てると表明した。ただ、ライク氏は「時に計算能力(の確保)に苦労し、重要な研究を成し遂げるのが難しくなっていた」と吐露した。同社は今回、方針変更の有無については言及していない。