人工知能は、厳密に制御された環境でのみ機能する、厳格なルールベースのシステムの時代から大きく進歩しました。過去 2 年間にわたって、この分野は、最小限の人間の指導で、自ら学習し、予期せぬ変化に適応し、複雑なタスクに取り組むことができる、より柔軟でインテリジェントなエージェントを目指して進化してきました。
この面で最も有望な開発の 1 つは、SingularityNET によって開発され、ASI Alliance を通じて一般公開された高度な AI システムである AIRIS です。 Autonomous Intelligent Reinforcement Interpreted Symbolism の略である AIRIS は、初期の AI モデルの中核をなす従来の「if-then」ロジックからの根本的な脱却を表しており、より一般的で創造的かつ自律的な機械知能によって特徴づけられる未来を垣間見ることができます。
厳格なルールを超えて: 従来の AI の限界
GOFAI (Good Old-Fashioned AI) とも呼ばれる従来の AI システムは、世界をナビゲートするために人間が作成したルールに大きく依存しています。考えられるアクションや結果はそれぞれ入念に定義されているため、予期しないことが発生するとシステムが完全に失敗する可能性があります。
強化学習 (RL) エージェントは、試行錯誤から学習することでこれを改善しますが、データを大量に消費することが多く、新しいシナリオに直面したときにすぐに適応するのに苦労します。たとえば、これらのモデルが迷路を移動するようにトレーニングされている場合、新しい障害物のような小さな変化でもモデルが混乱し、大規模な再トレーニングが必要になったり、完全に機能不全に陥ったりする可能性があります。
AIRIS の違い
AIRIS は、まったく異なる角度からこの課題に取り組みます。事前に作成されたルールに依存したり、膨大な量のトレーニング データを必要としたりするのではなく、環境と対話することで学習し、因果関係を反映する動的な内部ルールのセットを継続的に改良します。
AIRIS を、果てしなく好奇心旺盛な探検家だと考えてください。ボタンを押すなど、何かを試します。壁に向かって移動する。棚から飛び降りて、その結果を観察します。各アクションは世界の内部モデルを更新し、その期待と動作をリアルタイムで調整できるようにします。
適応学習へのこの移行は、単に理論的なものではありません。 AIRIS は、ますます複雑になる環境でその機能を実証してきました。シンプルな 2D パズルの世界から始まり、実験してパターンを自ら発見することで、ドアを開けるための鍵を見つけるなどのサブ目標を設定する方法を学びました。そこから、3 次元環境、特に複雑さと創造的な可能性に富んだゲームの世界 Minecraft に移行しました。
Minecraft の広大な地形をナビゲートし、さまざまなオブジェクトと対話し、予測不可能な障害物に対処することは、エージェントが環境を認識して理解するだけでなく、学習したルールを刻々と変化する条件に適用する必要があるため、AIRIS の適応性を試す場となります。
少ないデータでより多くのことを実現
AIRIS の傑出した特性の 1 つは、データ効率です。従来の強化学習モデルでは、信頼性の高いパフォーマンスを達成するために、多くの場合、何百万ものシミュレートされたエピソードが必要です。対照的に、AIRIS は少数のインタラクションから学ぶことができます。新しい観測ごとに内部の知識が洗練され、より迅速に、はるかに少ない計算オーバーヘッドで問題を解決できるようになります。このため、AIRIS は、トレーニング データが限られている、継続的に変化する、または取得にコストがかかる現実のアプリケーションに最適です。
さらに、AIRIS の学習は、1 つのタスクを習得したら終わりではありません。目標の変更をその場で処理できるように装備されています。最初に箱を棚に移動し、次に品物を色で分類する倉庫ロボットを想像してみると、AIRIS は即座に適応できるでしょう。トレーニング ラボに戻ったり、大量の新しいデータセットを入力したりする必要はありません。AIRIS は単に学習を進めながら、新しい目標に対処するためにルールを調整します。
より高いレベルでの推論
AIRIS を真に際立たせているのは、より高度な推論と探索の能力です。サブ目標を設定して実験することで、創造的な解決策を発見し、未知の領域をナビゲートするための重要な要素である好奇心に似た行動を示します。 AIRIS は新たな領域に進出する際、その環境を効果的に計画し、新たな課題に直面するたびにルールと理解を更新します。この未知へのオープンさにより、AIRIS は不完全な情報や急速に変化する状況を伴う複雑なシナリオに対する強力なソリューションとなります。
その適応性は、それ自体の孤立した学習体験を超えて拡張されます。理論的には、複数の AIRIS エージェントが知識を共有し、学んだ教訓を他のエージェントに伝えることができます。この集合知のアプローチは、ますます洗練された AI エコシステムの開発を加速するでしょう。本質的に、各エージェントのエクスペリエンスは、AI エンティティのネットワーク全体にわたる共通理解のプールの拡大、効率の向上、および問題解決に貢献できます。
仮想世界から現実の産業まで
AIRIS は現在、Minecraft などの環境で紹介され、仮想テストベッドの文脈で議論されていますが、その影響は現実世界にまで広がっています。ロボット工学を考えてみましょう。AIRIS を搭載したロボットは工場内で稼働し、状況の変化や機械の故障に応じて生産ラインを最適化する方法を継続的に学習します。在庫は変動します。人間のエンジニアがすべての応答を再プログラムする必要がなく、新しいタスクが導入されました。
ヘルスケア分野では、AIRIS は医療ロボットが予測不可能な環境でタスクを実行するのを支援し、患者や機器の変化にシームレスに適応できる可能性があります。物流では、常に流動するサプライチェーンの運用を管理し、ルートの変更、出荷の遅延、在庫不足にもかかわらず荷物がスムーズに移動することを保証できます。
潜在的な応用例は、輸送、エネルギー管理、小売のパーソナライゼーション、さらには教育にまで及び、システムは学生のニーズと課題の進化する理解に基づいて指導を調整することができます。 AIRIS は、AI が厳格な制約から解放され、無制限の問題解決を受け入れることを可能にすることで、効率性、回復力、人間のような柔軟性を促進するイノベーションへの道を切り開きます。
少しずつAGIに近づいていきます
AIRIS の背後にあるチームの根底にある野望の 1 つは、AI を AGI (理解、学習、幅広いタスクにわたって知能を適用できる汎用人工知能) の実現に近づけることです。 SingularityNET、Fetch.ai、Ocean Protocol のリーダーで構成される ASI Alliance は、分散型インテリジェンスの探索に特に関心を持っています。 AIRIS は、AI が説明可能で適応性があることを実証することでこの使命を体現し、学習したルールの透明性を提供し、開発者が AI の動作を理解し、導き、改良できるようにします。
AIRIS に関連するもう 1 つの重要な取り組みである SophiaVerse は、ゲームのような世界に AI エージェント (ネオテリックと呼ばれる) が存在するデジタル プレイグラウンドを導入します。エージェントは対話し、互いに学習し、複雑なタスクに取り組み、AI の推論、自律性、協力の限界を試すことができます。ネオテリクスの動機、動機、問題解決戦略は、新しいアーキテクチャを探索するための安全な環境を提供しながら、AI が現実世界でどのように動作するかを示すミニチュア モデルとして機能します。
よりインテリジェントな未来を垣間見る
2D パズル解決から 3D Minecraft ローミングへの AIRIS の旅は、単なる技術的な成果ではありません。これは、真にその場で学習する AI の開発における画期的な出来事です。 AIRIS は、推論し、サブ目標を設定し、リアルタイムで適応し、潜在的にコラボレーションする能力を備えているため、AI の未来、つまり機械が自律的に複雑さと予測不可能性に簡単に対処できる世界を垣間見ることができます。
そのリアルタイム学習とルール作成は、私たちが AI に期待するものの枠組みを打ち破るだけでなく、多くの新しいアプリケーションや産業への扉を開きます。 AIRIS は、ゲームやロボット工学から物流やヘルスケアに至るまで、自律的で多用途で有益な AI システムが人間と並行してシームレスに動作し、世界に対する人間の理解を継続的に洗練させ、最も差し迫った課題の解決に役立つ未来を示唆しています。
この注目すべきテクノロジーが進化するにつれて、汎用人工知能の可能性を最大限に解き放ち、よりスマートで最終的にはより人間らしいマシンへの道が開かれる可能性があります。
この投稿「Exploring AIRIS: 適応型自律 AI の新たなフロンティア」は、最初に TechBriefly に掲載されました。
Source: AIRIS の探索: 適応型自律 AI の新たなフロンティア