AIの使用はますます一般的になりつつあり、これがEUが新しくより厳格なルールを提案する理由です。 EUは、AIの使用を規制するためのより厳格な規則とともに、最初の規制提案の公表を進めることを決定しました。
規則案は、すべての加盟国の企業と政府がこのテクノロジーをどのように使用できるかを説明し、自動運転車から採用決定、銀行貸付、学校の授業料の選択、試験のマーキングまで、さまざまな活動でのAIの使用に制限を設けています。法執行機関や司法制度、および人々の安全や基本的権利を脅かすその他の分野での使用ですらあります。
EUは、新しいルール提案でAIへのアプローチを示しています
EU委員会は、AIのリスクの高いアプリケーションに焦点を当て、AIベースの製品やサービスを市場に投入したい企業に大きな障害をもたらすことなく、個人のセキュリティ、その権利、および利益を保証します。
この提案は、人々への潜在的な影響に応じてAIの特定の使用に関するリスクベースのアプローチの下で提示され、最大4つの異なるレベルに分類され、そのうち軍事用途のみが除外されます。
最小限のリスクから始めて、たとえば一部のおもちゃやビデオゲーム、音楽作成や画像編集のアプリケーションなどに含まれるレジャーや人工知能などの平凡な用途がありますが、規制ではそのアプリケーションが指定されていません。制限措置。
「限定的なリスク」から始まる対策。これには、チャットボットなど、ユーザーが連絡できるクローズドAIシステムが含まれます。チャットボットは、人間以外の連絡先として常に警告されることに加えて、最低限の透明性に準拠する必要があります。 。
「高リスク」の2番目のポイントには、人々のセキュリティまたはその基本的権利に悪影響を与えるシステム、健康、教育、人材採用システム、公共サービス、法律、または司法に影響を与える可能性のある重要なインフラストラクチャでの使用が含まれます。
「受け入れられない」というカテゴリがあります
さらに、遠隔生体認証システムも高リスクと見なされ、新しい、より厳しい要件がそれらに適用されます。 EU委員会はそれらを直接禁止することを決定していませんが、顔認識は公共およびライブエリアでの使用が禁止されることを定めています。 扶養家族や行方不明者の捜索、特定の差し迫ったテロの脅威の防止、または重大な犯罪の加害者または容疑者の特定など、いくつかの例外があります。
最高レベルでは、「許容できないリスク」セクションがあります。これには、「政府による社会的スコアリング、子供の脆弱性の悪用、サブリミナル技術の使用、および–狭い例外を条件として–」に対する脅威と見なされる使用が含まれます。法執行の目的で使用される公的にアクセス可能なスペースでのライブリモート生体認証システム。」
最後に、人工知能が人間に取って代わったり、人間の責任を免除したりしてはならないことを考慮して、人間の相互作用と制御の必要性が再び強調されました。
ただし、EU委員会は、この新しい規制をまだ承認していません。このプロセスは、これらの措置の実施を1年以上延長する可能性があります。 現時点では人工知能の特定の使用のみが規制されることはすでに明らかにされていますが、これらの規制には「イノベーションのマージン」があり、ロボット工学や3Dプリンターなどの他の新しいホットトピックの規制にすでに入っています。