【3月2日 AFP】人工知能(AI)は、構築に用いられるデータの監視を行わなければ、人間が持つ性差別などの偏見を模倣学習する恐れがあると、スペイン・バルセロナ(Barcelona)で開催された世界最大級のモバイル機器見本市で1日、専門家らが警鐘を鳴らした。

「2018モバイル・ワールド・コングレス(Mobile World Congress 2018)」で、コンサルティング大手アクセンチュア(Accenture)の技術部門責任者を務めるエマ・マクギガン(Emma McGuiguan)氏は、「コーディングを担当した人と同じ偏見をコンピューターは学習する。これは皆十分に承知していることだ」と語った。

 AIは、学習や意思決定などの人間の行為を再現するようにコンピューターをプログラムする技術だ。

「これを行うには、人間主導による大量のデータ収集が不可欠」と指摘するのは、インド通信会社タタ・コミュニケーションズ(Tata Communications)の最高革新責任者、ジュリー・ウッズ・モス(Julie Woods-Moss)氏。

 ウッズ・モス氏は「AIが偏見を持たないように細心の注意を払う必要がある」として、さまざまな偏見を特定する方法を模索しないといけないと技術部門の専門家らに呼びかけた。「例えば『医師は男性』や『看護師は女性』といった傾向が確認され始めた場合など。偏見を意識的に見つけるための方法があるはずだ」

 さらに「大半のパーソナルアシスタント(機能)が女性」である実態を非難したウッズ・モス氏は、自動車のナビゲーションシステムを例に挙げ、ここでは運転手が男性で、GPS(全地球測位システム)機器では女性の声を聞きたいのだろうということが暗に想定されていると説明した。

 この種の機器の大半はAIのサポートによって機能している。AIはユーザーらの会話を分析して応答できるようにする。

 ウッズ・モス氏はまた、インターネット通販最大手の米アマゾン・ドットコム(Amazon.com)のAI音声アシスタント「アレクサ(Alexa)」が「ハッシュタグ#MeToo(私も)に参加したのはごく最近のことだ」とも述べた。「#MeToo」は、ソーシャルメディア上で立ち上がった運動で、女性らに自身に対する性的暴力やセクハラを公表するよう促す。

「アレクサは以前、最悪にいやらしい名前で呼ばれた場合でも『フィードバックありがとうございます』と応じていた。今は『お答えできません』と返す」

 他方で、女性起業家のための資金調達プラットフォーム「シーワークス(SheWorx)」創業者のリサ・ワン(Lisa Wang)氏は、AI技術を構築している90%以上が男性であることを指摘。「これが最終的には、AIを構築している人々の偏見を増幅させることになる」と続けた。

 世界経済フォーラム(WEF)の2016年の報告書によると、携帯電話技術業界で働く女性の割合はわずか19%だという。

 この問題に着目した米国自由人権協会(ACLU)は昨年、コンピューターに人種や性差に関する偏見が潜んでいる恐れがあるとして調査を開始した。(c)AFP