AI(人工知能)は「人間よりも客観的で高度な判断を下せる」として、実社会で活用が広がっています。しかし、実際には「アルゴリズムバイアス」と呼ばれるバイアス(偏見)が存在し、これが人種差別や性差別といった社会問題に発展するといわれています。
目次
アルゴリズムバイアスとは、学習に使用されるデータやサンプリング (※)の偏りや欠陥が原因で、機械学習のアルゴリズムが公平性に欠ける結果を学習してしまうことです。
(※)膨大な量のデータから一部を取り出し、それをもとに統計学的に抽出すること。
典型的なアルゴリズムバイアスとして、人種やジェンダー、年齢などの偏りが挙げられます。過去に、Googleの画像認識アルゴリズムが黒人男性をゴリラとして分類していたことや、AmazonのAI人材雇用システムが女性に不利な評価を下していたことなどが発覚しました。
その一方で、マイノリティ(特にマイノリティの女性)に対して顔分析技術のエラー率が高いことが、マサチューセッツ工科大学(MIT)とスタンフォード大学の共同調査で明らかになっています。大手IT企業3社の顔分析ソフトを調べたところ、白人男性の性別判定エラー率はいずれも0.3%以下だったのに対し、黒人女性に対するエラー率は20~35%と誤差が大きくなりました。
いずれも、データやサンプリングの偏りが原因で生じたバイアスです。Amazonのケースでは、スクリーニングした10年分の履歴書の大半が男性からの応募だったため、システムが「男性の採用が好ましい」と認識したことによりバイアスが生じました。
これらの事例が示すように、AIシステムは学習データに大きく左右されるため、データの品質や中立性の維持が極めて重要な課題となっています。AIバイアス問題を解決するためには、データ収集からモデルのトレーニング、評価まで、あらゆるプロセスにおいてバイアスの潜在的な原因を特定し、排除する必要があります。
一方で、「そもそも完全な中立の定義が難しい」「時間の経過とともに、新たなバイアスが生じる可能性がある」といった指摘もあります。そのため、最近では「バイアスを完全に排除しようとするのではなく、適切に管理する」というアプローチが徐々に広がっています。
ブロックチェーン技術はアルゴリズムバイアスの直接的排除にはつながらないものの、学習データの客観性や透明性、多様性の確保などに役立つと期待されている技術の一つです。
「分散型で中央管理者が不要」「改ざんが難しい」「トレーサビリティ(追跡可能性)に優れている」「透明性が高い」といったブロックチェーン技術の特徴を活かし、データ収集・管理のバイアスを軽減できる可能性があります。
例えば、ブロックチェーンネットワークを介して複数の関係者間で安全かつ効率的に学習データを共有・検証することにより、多様性や客観性に優れたデータの管理が可能になります。また、トレーサビリティはデータの出所や収集・管理プロセスの透明性の向上に貢献します。
すでにアルゴリズムバイアス問題にブロックチェーン技術を活用する事例があります。
Microsoftは2019年に「ブロックチェーン上の分散型・協調型AI」と呼ばれるフレームワークを立ち上げ、分散型の機械学習モデルを共有・トレーニングするためのフレームワークの構築に取り組んでいます。
この画期的なプロジェクトの目的は、参加者(ユーザー)が学習モデル用の「良質なデータ」の提供・検証・共有を行うことにより、データの透明性と多様性、信頼性の向上を図るというもので、良質なデータの提供者はインセンティブを得ることができるという仕組みです。
一方で、分散型データネットワーク「Streamr(ストリーマー)」は自社のネットワークとイーサリアムを活用し、参加者がデータをリアルタイムで販売できる「Data Unions(データユニオンズ)」というフレームワークを開発しています。
このような潮流がブロックチェーンとAIの発展に大きく貢献すると期待されている一方で、ブロックチェーンのスケーラビリティ問題(ユーザーの増加に伴うシステム負荷の増加)の悪化を懸念する声もあります。
既存の課題に対応する一方で、ブロックチェーンとAIを融合させることにより、どのようにして両者のポテンシャルを最大限に引き出すことができるかが、今後の課題の一つとなりそうです。Wealth Roadでは、引き続きブロックチェーン及びAI市場の動向をレポートします。
※上記は参考情報であり、特定企業の株式の売買及び投資を推奨するものではありません。