Openaiは、AIモデルの安全性テストに割り当てられた時間を大幅に短縮し、新しいモデルの急速な放出に関連する潜在的なリスクと害についての懸念を引き起こしました。
Openaiまたはサードパーティのテスターのスタッフの8人は、以前は「数か月」かかったプロセスである新しいモデルの評価を完了するために「ちょうど日」があることを明らかにしました。このテスト時間の劇的な短縮は、特に中国のAIスタートアップDeepseekなどの企業によって開発されたOpen-Weightモデルとの競争に直面して、競争力を維持したいというOpenaiの欲求に起因しています。
評価は、モデルのリスクや害を特定するには重要です。たとえば、生物時代を作成するための指示を提供するモデルを操作する可能性などです。比較のために、情報筋は、Openaiがリリース前にGPT-4をレビューするために6か月を与え、2か月後に能力に関してのみ発見したことに注目しました。 Openaiの新しいモデルであるO3の現在のテストプロセスは、それほど徹底的ではなく、リスクを適切にキャッチして軽減するために必要な時間とリソースが不足していると伝えられています。
現在、O3のフルバージョンをテストしている1人は、このシフトを「無謀」で「災害のレシピ」と説明しています。 Openaiは来週O3をリリースしていると噂されていますが、情報筋によると、テストのタイムラインを1週間以内に急いでいました。 Openaiの安全システムの責任者であるJohannes Heideckeは、同社は「私たちがどれだけ速く移動し、どれだけ徹底しているかというバランスが良い」と主張しました。ただし、フィールドのテスターと専門家は、テスト時間の短縮時とそれに関連する潜在的なリスクでアラームを表明します。
AIモデルの分野における政府規制の欠如は、Openaiのテストタイムラインの変化によって強調されています。米国AI安全研究所との日常的なテストを実施するためにバイデン政権と自発的な協定に署名したにもかかわらず、それらの契約の記録はトランプ政権の下で去られました。 Openaiは、州ごとの法律のパッチワークのナビゲーションを避けるために、同様の取り決めを提唱しています。対照的に、EU AI法は、企業がモデルをテストし、結果を文書化するリスクを負うことを要求します。
MITのAI研究者であるShayne Longpreのような専門家は、AIモデルの迅速な放出に関連する潜在的なリスクに関する懸念を共有しています。 Longpreは、AIシステムの欠陥の表面積は、AIシステムがデータストリームやソフトウェアツールへのアクセスを増やすにつれて大きくなっていると指摘しています。彼は、サードパーティの独立した研究者への投資の必要性を強調し、バグの報バウンティ、赤い世話へのより広いアクセス、およびAIの安全性とセキュリティを改善するためのテスターの調査結果の法的保護などの手段を提案します。
AIシステムがより能力が高まり、新しい、しばしば予期しない方法で使用されるにつれて、徹底的なテストと評価の必要性がますます重要になります。 Longpreは、内部テストチームでは十分ではなく、ユーザー、学者、ジャーナリスト、およびホワイトハットハッカーのより広範なコミュニティが、これらのシステムが現在サービスしている欠陥、専門知識、多様な言語の表面積をカバーするために必要であると強調しています。
Source: OpenaiはAIテストを急ぎ、安全性の懸念を引き起こします
