AI 研究所である OpenAI は最近、自社製品に関する安全上の懸念に対処する声明を発表しました。 この声明は、業界リーダーからの GPT-4 などのモデルの開発の一時停止の呼びかけ、イタリアでの ChatGPT の禁止、連邦取引委員会へのリスクに関する苦情など、ここ数週間で浮上したいくつかの論争に対応するものです。特に子供たちへの危険な誤報。
OpenAI の安全性に関する誓約は、製品が安全であることを一般に保証すると同時に、改善の余地があることを認めることを目的としています。 同社は、安全性がすべてのレベルでシステムに組み込まれていることを保証するために取り組んでおり、政策立案者や利害関係者と協力して安全な AI エコシステムを作成することに取り組んでいることを強調しました。
ただし、この声明には、OpenAI がどのようにリスクを軽減し、ポリシーを実施し、規制当局と協力するかについての詳細が欠けていました。
イーロン・マスクとスティーブ・ウォズニアックは、6か月の一時停止を求める公開書簡を公開しました
木曜日に発表されたハイブリッドな反論と謝罪は、同社の製品が安全であることを一般に安心させ、成長の余地があることを認めることを目的としていました.
OpenAI の安全に関する誓約は、最近のすべての論争に対するもぐらたたきの反応のように聞こえます。 先週だけでも、ChatGPT はイタリアで完全に禁止されました。 イーロン・マスク と スティーブ・ウォズニアック は、GPT-4 のようなモデルの開発を 6 か月間一時停止するよう要求する公開書簡を発行しました。 チャットGPT 特に子供に、危険な誤報のリスクをもたらします。
ああ、ユーザーのチャット通信と個人情報が誰にでも見られるという不具合がありました。

OpenAI によると、「すべてのレベルで安全性がシステムに組み込まれていることを確認する」ように努めています。 GPT-4 をリリースする前に、OpenAI は 6 か月以上を費やしました」厳密にテスト」と述べ、18 歳以上の要件を実装するための検証の代替手段を検討していると述べました。
ビジネスは、機密情報を販売するのではなく、AI モデルを強化するためにのみ使用することを強調しました。 また、議員と協力し、「安全な AI エコシステムを作成する」ために AI 利害関係者と引き続き協力する用意があると述べました。

OpenAI は、安全な LLM を作成するには現実世界のフィードバックが必要であることを安全誓約のほぼ中間で認めました。 パブリック フィードバックから学習することで、モデルがより安全になり、OpenAI が誤用を監視できるようになると主張しています。
「また、実世界での使用により、私たちのテクノロジーの多くの有益なアプリケーションを可能にしながら、人々に真のリスクをもたらす行動に対してますます微妙なポリシーを開発するようになりました。」
OpenAIが提供する「安全への取り組み詳細、」しかし、年齢確認を調査するという誓約は別として、声明の大部分は標準的な決まり文句のように読めます. リスクの軽減、ポリシーの実施、または当局との協力をどのように意図しているかについての情報はほとんどありませんでした。
OpenAI は、透明性のある方法で AI 製品を作成することに喜びを感じていますが、この発表では、AI が実際に使用されている今、何を計画しているのかについての詳細はほとんど示されていません。

OpenAI の背後にあるロジックは何ですか?
OpenAI によると、彼らの ChatGPT モデルは、人間のフィードバックからの強化学習を使用して教えられました (RLHF) 機械学習手法により、対話をシミュレートし、フォローアップの問い合わせに応答し、エラーを告白し、誤った前提に異議を唱え、不適切な要求を拒否することができます。
当初、人間の AI 教師は、顧客と AI アシスタントの両方として行動するインタラクションをモデルに提供しました。 ボットの公開テスト バージョンは、会話形式で人間が書いたテキストに似た詳細な応答で、ユーザーのクエリと応答を理解しようとします。
ChatGPT をまだ体験したことがない場合は、これをクリックして今すぐ体験できます。
