Runway は最近、Gen-2 Runway AI と呼ばれる最新の人工知能ソフトウェアを発表しました。これは、前身の Gen-1 から大幅な技術的飛躍を遂げています。 以前のバージョンでは、既存のビデオのデータを使用して新しいビデオを生成できましたが、Gen-2 Runway AI では、テキストの説明だけから完全なビデオを作成できます。
同社は昨年 9 月からこの最先端のモデルに取り組んでおり、新しいビデオを現実的かつ一貫して合成できる、市場で初めて公開されたテキストからビデオへのモデルであることを誇りに思っています。
言葉だけでビデオを生成します。 言えば今ならわかる。
はじめに、テキストからビデオへ。 Gen-2で。
詳細については、https://t.co/PsJh664G0Q をご覧ください。 pic.twitter.com/6qEgcZ9QV4
— 滑走路 (@runwayml) 2023 年 3 月 20 日
Gen-2 Runway AI は、テキスト プロンプトを使用してビデオを作成できます
画像やテキスト プロンプトの構成とスタイルをソース ビデオの構造に適用して新しいものを作成できる Gen-1 の優れた機能を組み合わせることで、Gen-2 Runway AI は大きな前進です。 テキストの説明だけでまったく新しいビデオ コンテンツを作成できるようになったことは、驚くべき成果です。 Web ベースのプラットフォームは、フォトリアリスティックではありませんが、この技術の力を明確に示す比較的高解像度のビデオを生成できます。 現在市場で入手可能なものと比較して、Gen-2 Runway AI によって生成されたビデオは非常に印象的です。
「画像とビデオを合成するためのディープ ニューラル ネットワークは、ますます正確で現実的になり、制御可能になっています。 数年で、私たちはぼやけた低解像度の画像から、合成メディアの台頭を可能にする非常に現実的で美的な画像へと移行しました.
「Runway Research はこれらの開発の最前線にあり、コンテンツ作成の未来がアクセス可能で、制御可能であり、ユーザーに力を与えるものであることを保証します。 オーディオビジュアル コンテンツに適用されるディープ ラーニング技術は、アート、クリエイティビティ、デザイン ツールを永遠に変えると信じています。」
Gen-2 Runway AI によって生成された動画は、実際の動画をシームレスに置き換えることはまだできていませんが、この技術は初期の頃から長い道のりを歩んできました。 さらなる進歩により、特に技術が Midjourney などのテキストから画像へのジェネレーターと同様の軌道をたどる場合、近い将来、これが可能になる可能性があります。
たとえば、ちょうど昨年、Midjourney は実際の写真として確実に通用する画像を作成できませんでした。 しかし、先週のバージョン 5 のリリースにより、これは変化し、AI によって生成されたビジュアルの分野で急速な進歩が見られたことを示しています。 Gen-2 Runway AI が同様のペースで開発を続ければ、実際の映像とほとんど見分けがつかないようなビデオをすぐに作成できるようになる可能性があります。
Runway はこの技術を一般に公開した最初の企業ですが、テキストからビデオへの生成に取り組んでいるのは Runway だけではないことを認識することが重要です。 たとえば、Google はしばらくの間、この技術を実験してきました。 同様に、テキストから画像への分野に多くのプレーヤーが存在するように、テキストからビデオへの分野でも、技術が進歩し続けるにつれて、多数の競合他社が急速に出現する可能性があります。 その結果、今後数か月から数年にわたって、この分野で次々と新しい開発が行われることが予想されます。
Runway の Gen-2 Runway AI からの最新のブレークスルーは、テキストからビデオへの技術にとって大きな前進です。 AI によって生成されたビデオはまだフォトリアリスティックではありませんが、この画期的な技術の可能性を示しています。
さらに、Runway がこの技術を公開したという事実は、AI を民主化し、より幅広い人々が AI にアクセスできるようにすることの重要性を強調しています。 Runway だけがこの分野に取り組んでいるわけではなく、Google などの他の企業もテキストからビデオへの生成を実験していることは注目に値します。 技術が進歩するにつれて、より多くのプレーヤーが市場に参入し、この分野でさらなる発展が見られることが期待できます。