欧州AI規制への懸念。すでに現実化する企業リスクへの対策とは
欧州連合(EU)執行機関である欧州委員会が2021年4月にAI(人工知能)の利用に関する規制案を発表しました。
それまでも法執行機関での顔認識技術の規制など、特定の技術と用途を規制する動きは米国を中心にありましたが、この規制案は経済圏内でAIシステムの開発や使用に対し横断的に適応される、世界で初めての包括的な規制案です。
欧州委員会の規制案に懸念の声
この規制案では、AIシステムの開発や利用がEU市民の安全衛生や基本的権利に与える影響の大きさをもとに、リスクを「禁止」「高リスク」「限定的なリスク」「最小限のリスク/リスクなし」の4段階に分類し、利用を制限しています。また違反に対しては最大3000万ユーロ(約39億円)もしくは全世界の年間売上高の6%(いずれか高い方)の罰金を科す可能性があるといい、具体的な罰則規定があるのも特徴です。
欧州産業界は、この包括規制案のリスクベースのアプローチを歓迎しつつも、企業の負担が増えたりイノベーションが阻害されたりすることを危惧しています。
欧州機械・電気・電子・金属加工産業連盟は規制案発表当日の声明で、「AIシステム」の定義をさらに明確にすることや、産業界と連携したより強固な法的確実性を与えることを求めています。さらに、適合性評価の義務化は、企業の負担を増やし、必ずしも安全性を高めることにはつながらないという懸念も表明しています。
日本でも、2021年8月に経団連が───、
●AI規制法案は、経団連が目指す「信頼できる高品質AIエコシステム」の構築と方向性を同じくする
●しかし現段階では、禁止・ハイリスクAIの定義などに曖昧さや解釈の余地があり、欧州への投資意欲や新興AI企業などの育成・強化を妨げ、イノベーションや国家安全保障に影響を及ぼす懸念がある
●施行前に、定義の明確化や説明の追加、ガイドラインなどの提供を行うべき
と、同様の意見を表明しています。
例えば、規制案の「禁止」の分類には、無意識の知覚に影響するサブリミナル技術に関係するAIが挙げられています。「サブリミナル」と聞くと何か仰々しいAIを想像してしまいますが、そんなことはありません。ごく身近なAI技術も該当する可能性があるのです。検索結果の表示順、ショッピングサイトに掲載されたおすすめアイテム、ストリーミング動画配信サービスで薦められる映画やドラマ、転職サイトでマッチングされた企業の表示順──。
我々がその裏で働くAIやアルゴリズムについて意識することはほとんどありません。しかし、こういったサービスが、何を買うか、どのドラマを見るか、どこに履歴書と職務経歴書を送付するか、という我々の行動に少なからず影響を与えているのは間違いありません。
もしも、このようなAIが「無意識の知覚に影響するサブリミナル技術に関係するAI」に該当するということになれば、この規制案はテクノロジー産業に甚大な影響を及ぼす可能性があります。このようにAIの定義やその適用範囲に曖昧性があり、文言も拡大解釈が可能なので、各方面からさまざまな懸念が出ているのです。
企業リスクは新興テクノロジーにも
とはいえ、AIのもたらすリスクについてより具体的な議論が進み、今後はリスクベースでAIのガバナンスを考えなければならないというのは世界の共通認識となっています。AIのリスクが企業リスクともなりえるからです。
GAFAに代表されるような大手テクノロジー企業は、プラットフォーマーとしての強みを活かしてユーザーの情報を収集、AIによりパーソナライズした情報を提示することにより快適な体験を提供し、さらにユーザーを惹きつけるという好循環を生み出しています。しかし規制当局などからは、こうして提示されるパーソナライズした情報が競争の公平性を満たしているのか、偏った情報が提供され、ユーザーが本来受け取るべき情報が取り除かれていないか、情報を囲い込むことで市場の独占を強めていないか、などと疑問の目が向けられています。
こうした企業リスクは大手テクノロジー企業だけのものではありません。世界中で新型コロナウイルス禍の影響を受けた分野の一つに教育があります。対面や集団での授業が困難になりオンラインでの授業が代替手段となりましたが、デジタル技術を使った教育テック(エドテック)企業への期待も大いに高まりました。
しかし米民主党の代表的進歩政治家であるエリザベス・ウォーレン上院議員らは2021年10月、米国のエドテック企業4社に、AIによる差別に懸念を表明する書簡を送付しています。その書簡では、近年の遠隔教育の拡大に伴い学生のオンライン活動に対するモニタリングシステムの使用が増加し、学生の監視プログラムが意図しない有害な結果をもたらすことが多くの研究で明らかになっていると強調されています。
さらにその書簡によると、使われている言語処理のアルゴリズムが有色人種、特にアフリカ系アメリカ人の方言を分析することにあまり成功しておらず、学生監視のプラットフォームが人種差別的バイアスを永続させる懸念があるとしています。
AIのリスクが企業リスクにもなりうる状況がこうした新興のテクノロジー企業にも起こりつつあります。これを対岸の火事として座視しているのは、潜在的な企業リスクを見過ごしているのと等しい態度といえます。積極的に動かなければならない時期が、まさにそこまで来ているのです。
実際、顔認識AIや行動予測AIに関していえば、欧州議会が2021年10月6日に、法執行機関による顔認証技術の使用や行動データに基づく犯罪予測と取り締まりを禁止するよう求める決議を採択したと発表しています。法執行機関だけでなく公共性の高い施設やサービスなどでも同様の技術の規制につながりうる状況といえます。
ESG経営の加速にも責任あるAIが必要
すでに国内各社でも多くのAI関連プロジェクトが進められていると思います。こうしたAIプロジェクトにリスクが存在しないか、AIの生み出すリスクが企業リスクにならないかを、今一度点検する必要があります。ここで重要になるのが、「責任あるAI」です。前回、アクセンチュアでは「責任あるAI」を実践するにあたって5つの行動原則(TRUST)を定義しているとご紹介しました。特に近年ではESG(環境・社会・企業統治)の観点がますます重視されており、「責任あるAI」はAIによる企業リスクを判断する上でのフレームワークとなります。つまり、ESG経営の加速には「責任あるAI」が重要な役割を担うことになります。前述のエドテックの例は社会に影響を与える事例といえるでしょう。
◎ 「責任あるAI」を実践できていないと、企業ブランドの毀損や消費者の離反につながりかねない。
⇒ 長期的な競争力とビジネスレジリエンスを確保するためには、ステークホルダーの興味・関心をAIを活用した中核ビジネスにも反映させる必要がある
AIは高性能化にともなってそのモデルも大規模化していますが、大規模AIモデルの学習には莫大な電力を消費するといわれています。AIの研究を行ってきた非営利組織「オープンAI(OpenAI)」の調査によると、大規模AIモデルの訓練に必要となるコンピューティングパワーは2012年以来3、4カ月ごとに倍増しているといいます。
マサチューセッツ大アマースト校の研究チームによると、Googleの自然言語処理モデルBERTの訓練に必要なコンピューティングコストをCO2排出量に換算すると、旅客機でニューヨークとサンフランシスコを往復するときのCO2排出量に相当するといいますから、地球温暖化がクローズアップされる近年においては決して無視できない「環境」面での観点になります。
「企業統治(ガバナンス)」の観点でも、AIやデータをどのように調達してくるかが重要になります。AIのビジネスはいかにパートナーシップを構築してビジネスモデルを構築するか、その中でどのように収益化につなげるモデルを設計するかという点が重要になっています。
しかしサプライヤーから調達されるAIがバイアスを含んでいて不平等な結果を出力するものであれば、企業はそのAIの利用者としてリスクを背負うことになりかねません。また、そのサプライヤーが使っているAIの学習用データに利用許諾の得ていないデータ(個人情報など)が含まれている場合にはどうなるでしょうか。これは自社がサプライヤーとしてユーザー企業にAIやデータを提供する場合に、今後どのようなことが求められるのかも意味しています。
このような「AIのサプライチェーン」上でのリスクをどのようにとらえ、ガバナンスを効かせていくのかについては、日本企業においても徐々に問題意識が芽生え始めています。リスクに先回りし、早めに検討して手を打っておくことが重要です。冒頭のEUの包括規制案でもAIのサプライヤーやユーザー企業に求める要件の規定を策定しており、グローバル基準ではそこまで議論が進んでいるのです。
では国内の企業や組織は、AIに関するコンプライアンス・プログラムや倫理ガイダンスをどのように設けたらよいのでしょうか。その方法の一つとして次回は、AIガバナンスのロードマップである6つのフェーズを紹介します。
AIを責任あるAIにしていくため今、より積極的な戦略が求められています。
●【連載】「責任あるAI」
#1:日本企業の経営幹部の77%が焦るAI導入
#2:AI活用は日常になるか? 起きる変化と「3つの壁」
#3:AIを「育てる」なら6つの新リスクに対処せよ
#4:公平なアルゴリズムは存在しないのか
#5:欧州AI規制への懸念。すでに現実化する企業リスクへの対策とは
保科 学世◎アクセンチュア ビジネス コンサルティング本部 AIグループ日本統括 兼 アクセンチュア・イノベーション・ハブ東京共同統括 マネジング・ディレクター 理学博士。アナリティクス、AI部門の日本統括として、AI HubプラットフォームやAI Poweredサービスなどの各種開発を手掛けると共に、アナリティクスやAI技術を活用した業務改革を数多く実現。『責任あるAI』(東洋経済新報社) はじめ著書多数。
鈴木 博和◎アクセンチュア ビジネス コンサルティング本部 AIグループ シニア・マネジャー。東京工業大学大学院情報理工学研究科計算工学修士課程、東京理科大学大学院イノベーション研究科技術経営修士課程修了。十数年におよびAIの研究開発・マネジメントなど多領域での研究企画に従事。その後、IT系コンサル会社にて自然言語処理を中心としたソリューションのPoC~導入・運用支援を多数経験。現在はアクセンチュアにてAI POWEREDバックオフィスの開発などAI技術を活用した業務改革実現に従事。
2022-02-15 20:55:49