今日、Googleから下記のようなメールが届きました。
2020年2月19日以降、Cloud Vision API では、‘LABEL_DETECTION’ 機能を使用する際に、画像内の人物に関する「男性」や「女性」などの性別のラベルを返さなくなります。
(中略)
人の性別を外見で推測することはできないため、Google の人工知能の原則、特に原則 2「不公平なバイアスの発生、助長を防ぐ」に従って、これらのラベルを削除することにしました。
写真から男女を画像認識するという機能は、Googleに限らずIBM、Amazon、Microsoftといった様々なAIクラウドベンダーが提供するものでした。他に、年齢とか、眼鏡やひげの有無とかも・・・。
私も、2016年に上梓した最初の著書「初めてのWatson」において、顔写真を撮影して性別と年齢を予想するというスマートフォンアプリを作例として取り上げていますし、そのハンズオンセミナーも何度かやりました。ただ、ダイバーシティの重要性などが社会で認識されていく中で、この機能の持つ危険性も感じていました。
現在では、今回のGoogleだけでなく、IBM Watsonも既に同様のサービス提供を終了していますし、これからの常識になっていくのではないかと思います。
ただ、そうした画像認識AIを活用するアプリケーションのニーズとしては、性別・年齢というマーケティング上の古典的な属性情報の自動認識がいまでも存在しているでしょうし(ついこの間もある案件でそのような要件が話題に上りました)、わざわざ入力してもらうよりも自動認識の方が楽ですから、難しいところです。
ただ、そうした画像認識の機能も昨年3月のJapanTaxiの事例もあり、充分な通知公表を行った上でやるといった配慮が必要になります。
・個人情報保護委員会より当社へ指導があったことは事実ですが、指導の内容は、当社が展開するタクシー車両搭載の広告配信用タブレットが行う、端末フロントカメラによる性別の推定機能について、カメラの存在・利用目的の通知公表が不十分である、というものです。
・本指導を受け、タクシー乗車されるお客様に対しタブレット上で機能のご説明をするための開発を進めており、4月公開予定となっております。
Googleからのメールにあるように、Googleは人工知能の原則を策定し、そのポリシーに基づいたAIの研究開発を行っています。(下記引用はMicrosoft翻訳を活用)
2.不当な偏見を作ったり、補強したりしないでください。
AI アルゴリズムとデータセットは、不公平なバイアスを反映、補強、または軽減できます。公正と不公平な偏見を区別することは、必ずしも単純ではなく、文化や社会によって異なっていることを認識しています。私たちは、人種、民族、性別、国籍、所得、性的指向、能力、政治的または宗教的信念などの敏感な特徴に関連する人々に対する不当な影響を避けることを目指します。
顔認識をはじめとするAIクラウドベンダーが提供する学習済みモデルを用いたAI活用は、AIの使い方としては最も簡単なもので、精度も高く、私もセミナーや研修で推奨しています。ただ、ベンダー側の方針によってサービスの提供形態は提供終了も含めて、いとも簡単に変更されます。
ここで取り上げた性別の認識については社会的要請でもあるので、ただ「ベンダーの方針変更で使えなくなった」というだけでなく、アプリケーションが本当にそれをやるべきなのか?を含めて考えるべきことでしょう。
いずれにせよ、注意が必要な事項なので、今後の活動の中でもお伝えしていきたいと思います。