アップルも従業員のChatGPT使用を禁止、データ流出を懸念

Apple(アップル)は一部の従業員の人工知能(AI)ツールの使用を禁止した。従業員が社内の機密データを外部に流出させる可能性があるという懸念から、大企業では職場で生成AIプラットフォームの使用を制限する動きが相次いでいる。

米紙ウォールストリート・ジャーナルによると、アップルはChatGPTや、開発者のコード作成を支援するGithubのCopilotといったAI搭載サービスを従業員が利用することを禁止した。

この措置の背景にはAIプラットフォームのデータ取り扱いに対する懸念がある。これらのプラットフォームの一部はアップルのライバルであるMicrosoft(マイクロソフト)が所有または資金援助しており、アップルの専有コードやその他の機密データを損なう可能性があるとウォールストリート・ジャーナルの報道にはある。

Samsung(サムスン)はエンジニアが機密コードをChatGPTにアップロードして誤って流出させたことが発覚し、今月初めにChatGPTなどのAIツールを禁止する同様の措置を取った。

1月にはアマゾンがChatGPTの回答例の中にアマゾンの内部データと類似しているものが見つかったとして、従業員がOpenAIのチャットボットでコードや機密情報を共有することを禁止した。

2月には米銀JPMorgan Chase(JPモルガン・チェース)も機密性の高い金融情報の共有をめぐる規制違反の懸念からChatGPTの社内利用を大幅に制限した。

その後、Bank of America(バンク・オブ・アメリカ)、Citigroup(シティグループ)、ドイツ銀行、Wells Fargo(ウェルズファーゴ)、Goldman Sachs(ゴールドマンサックス)などの金融機関も従業員によるAIチャットボットの利用を禁止した。

他社が手がけたAIツールの使用を禁止している企業の多くは、ChatGPTやGoogle(グーグル)のBardのようなサービスが共有されたデータをどのようにサーバーに保存しているかを懸念している。また、チャットボットやAIサービスの多くはモデルを訓練するのにユーザーが入力するものに依存しており、意識せずに誤って企業の専有データを他のユーザーに提供してしまう可能性があるという事実も懸念事項だ。

ChatGPTはチャット履歴が保存されないようにする方法をユーザーに提供しているが、これはデフォルト設定ではない。また、ChatGPTがチャットをすでにモデルの訓練に使っていた場合、そのチャットを削除して何らかの変化が生じるのかどうかも不明だ。OpenAIは3月に一部のユーザーが他のユーザーのチャット履歴の一部を見ることができるというバグに対処するためにChatGPTの提供を一時的に停止した。

職場でのAIサービスの利用を制限している企業がある一方で、すでにワークフローにこれらのツールを導入し始めている企業もある。従業員のChatGPT利用を制限している銀行の1つであるゴールドマン・サックスは、ソフトウェア開発者のコード作成や試験の補助に生成AIツールを使用していることを明らかにした。

米経営コンサルティングのBain & Company(ベイン・アンド・カンパニー)は今年初め、OpenAIの生成ツールを自社の経営管理システムに組み込んでいることを発表。また、AIを活用することで人間の労働力のかなりの部分を代替できると強気の姿勢を示している企業もある。

英通信大手BTは5月18日、今後10年間で少なくとも1万人の労働者(主に顧客サービス職やネットワーク管理職)をAI搭載のツールで置き換える計画だと明らかにした。今月初めにはIBMのアービンド・クリシュナ最高経営責任者(CEO)がAIで代替可能な職種の採用を停止すると明言している。

一部の企業によるAIツールの使用禁止は、必ずしもAIそのものに対する広範な懸念に起因するものではない。むしろ、OpenAIやグーグル、マイクロソフトといったAIプラットフォーム運用企業が、これらのサービスで共有される専有データをどのように扱うかに起因していることは注目に値する。

アップルでは元グーグル社員のジョン・ジャナンドレアが率いるチームが独自のAIツールに取り組んでいるとウォールストリート・ジャーナルは報じている。ティム・クックCEOは直近の決算説明会で「慎重かつ思慮深いアプローチをとることが非常に重要だが、その可能性は確かに非常に興味深い」と考えていると述べた。