ChatGPTに潜む5大リスクと開発競争の行方 AIが原理的に理解できない「人間らしさ」とは?

ネット上にある膨大なデータを基に学習するChatGPT(チャットGPT)などのAI。さまざまな作業を効率化するメリットがある一方で、プライバシーや企業情報の漏洩、雇用の喪失などを懸念する声が上がっている。そして、サイバー攻撃など犯罪に悪用される危険性も指摘されている。私たちはこのようなリスクに、どう向き合えばいいのだろうか。(桜美林大学教授 平和博)

<<前編:社員が機密情報をChatGPTに入力、上司の知らぬ間に漏洩も 生成AIの安全対策は可能?>>より続く

【表】ChatGPTに聞いてみた「将来なくなる仕事」はこちら*  *  *

■犯罪に悪用されないか

チャットGPTは、その悪用のリスクも指摘されてきた。ユーロポール(欧州刑事警察機構)は3月27日付で公表した報告書で、その具体的な事例を明らかにしている。

「大規模言語モデルによって、フィッシングやオンライン詐欺は、より迅速に、ずっと本物らしく、そして極めて大規模に作成できるようになった」

詐欺行為やサイバー攻撃では、標的に対して企業や他人になりすましたメールを送付し、それを足がかりにすることが多い。従来なら人の手で作成していたそのような文面も、チャットGPTなら、即座に、より自然に、何件でも、さらにはさまざまな言語で、作成することができる。
「これらの犯罪行為に加え、チャットGPTの機能は、テロリズム、プロパガンダ、偽情報の分野で多くの潜在的な悪用ケースに適している」

チャットGPTを開発する米企業オープンAIも安全対策を講じているが、それらの回避策も存在するという。さらに自然言語だけではなく、サイバー犯罪に使用できるプログラムの作成も可能だという。その機能は、専門知識のない犯罪者の参入のハードルを下げる一方で、高度なサイバー犯罪の手口をさらに巧妙なものにすることもできるとしている。

サイバー犯罪対策とフェイクニュース対策にも、進化が求められている。

■「社会と人類へのリスク」

「猛烈なスピードで(AI)開発が進むのとは対照的に、ガバナンスのための対策はおおむね動きは鈍く慎重姿勢だ。より強力なAIシステムの開発を一時停止することは、ガバナンスの対策がこの分野の急速な進化に追いつくための、重要な機会になる」

米NPO「未来生命研究所(フューチャー・オブ・ライフ・インスティチュート、FLI)」は、4月12日付で公開したAI開発停止をめぐる政策提言書で、そう指摘する。提言書の中では、「(AI開発に対する)第三者機関による厳格な監査と認証」など7項目の政策を掲げている。

同研究所は3月22日付の公開書簡で、「人間並みの知能を持つAIシステムは、社会と人類に重大なリスクをもたらす可能性がある」と指摘し、GPT-4よりも強力なAIシステムの学習を半年間停止するよう求めた。公開書簡に賛同する署名者の数は、開始から4週間で2万6千人を超えた。

署名者として注目を集めるのは、世界的に知られる専門家たちだ。

同研究所所長でマサチューセッツ工科大学(MIT)教授のマックス・テグマーク氏と、同研究所理事でネット通話サービス、スカイプの共同創業者、ヤン・タリン氏、同研究所アドバイザーでもあり、テスラやスペースX、ツイッターCEO、そしてオープンAIの創設にも携わったイーロン・マスク氏、AI研究で知られるカリフォルニア大学バークレー校教授、スチュアート・ラッセル氏。

さらに、ディープラーニング(深層学習)のパイオニアでモントリオール大学教授のヨシュア・ベンジオ氏、アップル共同創業者のスティーブ・ウォズニアック氏、画像生成AI「ステイブル・ディフュージョン」を開発したAIベンチャー「スタビリティAI」CEOのエマード・モスターク氏、『ホモ・デウス テクノロジーとサピエンスの未来』などの著書があるヘブライ大学教授のユヴァル・ノア・ハラリ氏の名前もある。

ただし、中には「習近平」など虚偽のものも含まれており、署名者の確認作業も進めているという。

同研究所の名前は、2017年に公表されたAI研究・開発の先駆的ガイドライン「アシロマAI原則」とともに知られる。23項目におよぶガイドラインは、「高度な人工知能は、地球上の生命の歴史に重大な変化をもたらす可能性があるため、相応の配慮や資源によって計画され、管理されるべきである」など、今回の公開書簡につながる問題意識を示す。

「アシロマAI原則」も、やはり公開書簡の形で公表し、テグマーク氏、タリン氏、マスク氏、ラッセル氏、ベンジオ氏のほか故スティーブン・ホーキング氏ら5千を超す署名を集めている。今回の未来生命研究所が出した公開書簡の実質的な宛て先となるオープンAIのCEO、サム・アルトマン氏も「アシロマAI原則」の署名者の一人だ。

「この数カ月、AIの研究機関は、誰も(その開発者でさえ)理解できず、予測できず、確実に制御できない、より強力なデジタル知能を開発し展開する、制御不能な競争に陥っている」

今回の公開書簡は、そう指摘している。

一方でウォールストリート・ジャーナルは4月14日、署名者に名を連ねるマスク氏が、AI開発のための新会社「X.AI」を設立した、と報じている。オープンAIへの対抗の狙いがあると言い、複雑な思惑もうかがわせる。

また、米NPO「AI・デジタル政策センター(CAIDP)」は3月30日、米連邦取引委員会(FTC)に対し、オープンAIが「商取引における不公正、欺瞞的行為」を禁じたFTC法に違反しているなどとして、同社への調査を行い、必要な安全対策が行われるまで、新たなモデルの公開を防ぐよう求める申し立てを行った。同センターも、AIが制御不能になることへの懸念を指摘し、FTCにルール策定を求めている。

■ワイゼンバウム氏の警告

「AIは病気や気候変動のような非常に難しい課題への対処に役立つが、我々の社会、経済、国家安全保障に対する潜在的なリスクにも対処しなければならない」

米国のバイデン大統領は4月4日、専門家グループとの会合でこう述べたという。米商務省国家電気通信情報庁(NTIA)も11日から、「AIのアカウンタビリティー(説明責任)」を担保するための規制策について、パブリックコメント募集を開始した。

来日したオープンAIのアルトマン氏は10日、岸田首相と面会し、チャットGPTの「利点と、欠点を軽減する方法」について説明したという。

プライバシーの侵害、企業秘密の漏洩、雇用の喪失、サイバー犯罪、そして制御不能な進化への懸念。ここまで見てきたチャットGPTの5大リスクに、どう備えればいいのか。

プライバシー侵害や企業秘密漏洩に関して、ユーザーの立場では、開発元であるオープンAIの対応も見極めながら、チャットGPTに入力しても支障のないデータかどうかを意識しながら使う必要はあるだろう。

そして仕事への影響については、どの部分がどれだけ効率化されるのか、それによって作業を見直し、生産性をどれだけ上げていくことができるのかを考える必要もある。一人ひとりが自分のスキルを改めて見直すきっかけにもなるだろう。

サイバー攻撃やフェイクニュース増大のリスクは、個々のユーザーにとっても、一層のセキュリティー意識とリテラシーが求められることになる。

AIが制御不能となるリスクに対しては、加速する一方の開発レースや熱狂に、社会として一定の冷静さを保つことも必要だ。

そして、AIにできることと人間にしかできないことの整理が、これまでにも増して重要になってくる。

「人間の生活には、コンピューターには理解できない側面がある。不可能なのだ。人間であることが必要だ。愛と孤独は、人間の生物としての特性と非常に深く関わっている。コンピューターは、原理的にそのようなことは理解できない」

1960年代半ばに、チャットボットの原型となる対話型のコンピュータープログラム「イライザ」を開発したMIT教授、故ジョセフ・ワイゼンバウム氏は、1977年5月8日付のニューヨーク・タイムズの記事で、こう述べている。

人間らしさ、人間への理解は、チャットGPT時代への大事な備えになるだろう。

平 和博(たいら・かずひろ)/早稲田大学卒業後、1986年、朝日新聞社入社。社会部、シリコンバレー(サンノゼ)駐在、科学グループデスク、編集委員、IT専門記者(デジタルウオッチャー)などを担当。2019年4月から桜美林大学リベラルアーツ学群 教授(メディア・ジャーナリズム)。主な著書に『悪のAI論 あなたはここまで支配されている』『信じてはいけない 民主主義を壊すフェイクニュースの正体』(いずれも朝日新書)などがある