言葉としての公平性の定義は合意することができますが、具体的には、その具体的な適用はさらなる分析の対象となる可能性があります。
何が公正かどうかを定義することは、人々にとって本当のジレンマになる可能性があるのと同じように、人工知能にとっても課題であり、ミシガン州立大学の新しいイニシアチブが緩和しようとしている課題でもあります。
AIアルゴリズムの公平性クラス
人工知能システムが日々の活動やサービスにますます存在することを考えると、誰が適切な医療を受けるか、誰が銀行ローンの資格があるか、または誰が割り当てられるかを決定するために関与するプラットフォームに十分な公平性を提供する必要があります仕事。
アマゾンと全米科学財団からの資金提供を受けて、前述の米国の大学のコンピューター科学工学部の研究者兼教授であるパンニンタンは、昨年、彼らが公平性と彼らの行動の不公平。
「私たちは、コンピュータサイエンスだけでなく、社会に価値と利益をもたらすAIシステムを設計しようとしています。 だから今、社会に挑戦している分野は何かを考え始めた」と語った。
このプロジェクトは、ユーザーに直接影響を与えるイニシアチブを開発する必要性を高めます。 同じ点を発展させて、タンはまた、「公平性は非常に大きな問題です。特に、医療などの日常のニーズだけでなく、スパムのフィルタリングやニュースセクションへの記事の掲載など、ありふれたものに依存するようになるにつれて、公平性は非常に大きな問題になります。 。」
自動化されたシステムであっても、AIアルゴリズムは、トレーニングで使用されたデータから特定の継承されたバイアスを運ぶことができ、作成者から直接渡されることもあります。 たとえば、タンの研究チームが実施した調査によると、求職システムで女性に対する医療や性別分離を管理する際に人種差別を行うAIシステムの事例があります。
この現実について、Tanの研究チームのメンバーであるAbdol-Hossein Esfahanianは、次のようにコメントしています。それを評価する方法の理解。
タンと彼のチームは、社会科学の理論の支援を受けて、可能な限り最も普遍的な公平性の概念を概算しようとしています。 この目的を達成するために、アルゴリズムに伝えられる公平性の原則は単一の見方から来るのではなく、競合する立場か矛盾する立場かを決定するのに挑戦します。
「私たちはAIに正義を認識させようとしています。そのためには、何が公正であるかを伝える必要があります。 しかし、誰にでも受け入れられる公平性の尺度をどのように設計しますか?」 タン氏は、「私たちは、決定が個人だけでなく、そのコミュニティや社会的サークルにもどのように影響するかを見ています」と付け加えました。
仕事は野心的であり、進歩にもかかわらず、それはまだ始まったばかりです。 「これは非常に進行中の研究です。 多くの問題と課題があります。公平性をどのように定義し、私たちが毎日使用するこれらのシステムを人々が信頼できるようにするにはどうすればよいでしょうか」とタン氏は振り返り、「研究者としての私たちの仕事はこれらの問題の解決策を見つけることです」と付け加えました。
この研究の完全なレポートは、ミシガン州立大学のWebサイトからアクセスできます。