近年、ChatGPTでリサーチすることを「GPTる」「ジプる」と呼ぶ若年層が増加するなど、AIは身近な存在として利用が拡大しています。
しかし、AIを使う人が増えると同時に悪用する人が増えている問題も無視できません。例えば秘匿性の高い情報を使った場合、情報漏洩リスクが高まるなどです。AI技術の利活用が増える現代だからこそ、今一度、リスクや正しい使い方について学ぶ姿勢が求められます。
本記事では、利用者、サービス提供者、社会といった3つの観点からみたAIリスクについて解説します。対策方法にも解説しているので、各項目を参考にしながらAIの利活用に役立てましょう。
関連記事:生成AIの対策まとめ|技術的・法的リスクを避ける術を紹介
関連記事:生成AIによるセキュリティリスクとは?対策や活用する際の注意点を解説
【事例付き】AI利用で発生するリスク
ChatGPTやGeminiといった生成AIをはじめ、近年では多様なシーンで利活用されているAI技術。利便性が高く迅速に情報が得られる一方で、使い方を誤るとさまざまな問題を招くといった懸念点についても理解しておくことが大切です。
ここでは利用者、サービス提供者、社会の3つの観点でみたAI利用によって発生するリスクについて解説します。ビジネスシーンや日常生活でAI技術を活用する方は、どのようなリスクと隣り合わせであるのかについて押さえておきましょう。
利用者
まずはAIを利用するユーザーからみたリスクについて解説します。具体的には下記の3つです。
情報漏洩
AI利用を通じた情報漏洩に留意する必要があります。例えば生成AIに知りたい情報を問う場合、「プロンプト」と呼ばれる指示文を提示しますが、この場合に機密度の高い情報も同時に提示することで、情報漏洩リスクが上がる恐れがあります。
実際、2023年3月に大手生成AIサービスで利用者の一部の個人情報が短時間ではありましたが他利用者に表示されてしまうといった問題が発生しました。サービス提供者は利用者から報告を受け即座にサービスの提供を一次停止し、不具合の解消を確認後、サービスが再開されました。
関連記事:【例文付き】生成AIのプロンプトの概要と書き方、重要性やポイントを解説
参考:March 20 ChatGPT outage: Here’s what happened | OpenAI
ハルシネーション
ハルネーションも無視できない問題です。AIにおける「ハルネーション」とは、予想していたものとは大きく異なり、誤った内容あるいは真偽を確認できない内容を抽出することです。学習データに要因があると考えられていますが、現状では発生を抑えることはできないといわれています。
ハルネーションが発生すると、誤った情報を提供する恐れがあります。医療や法律など専門性の高い分野において誤った解釈を利用者に提供した場合、その内容が真実と受け止める人間が増え、大きなトラブルに発展することが予想されます。
例えば「Aという病気にはZという治療法が有効」とAIがデータを提供しても、実際はそのような治療法はない、あるいは効果が証明されていないといった事態につながるなどです。
実際、アメリカに住む弁護士がクライアントを訴訟するため、大手生成AIサービスを使って法的調査を行い、提供された裁判例をもとに法定で主張したものの、その裁判例が実在するものではなく、訴訟を起こした同弁護士は裁判所から高額な罰金を課されました。
参考:$2000 Sanction in Another AI Hallucinated Citation Case
著作権をはじめとした権利の侵害
AIが生成・提供したコンテンツや開発プロセスが、知的財産権を侵害するリスクもあります。生成AIは情報分析やリサーチ以外にも、文章や画像、音楽や動画といったコンテンツ作成にも対応しています。人間の思考では生まれないようなモノづくりにつながる一方、生成されたコンテンツがすでにあるモノの権利を侵害する恐れもあります。
例えば日本を代表する声優陣の声が無断利用された問題です。2024年11月には声優などの業界団体がAIで声優の声を利用する場合には本人の許諾を得るべきであることを声明する記者会見を開いています。
また近年では動画配信サービス内で有名YouTuberなどの声を悪用し、あたかも本人が推奨しているかのように受け取れる広告が配信されており、金銭的な利益を得ているといった事象も発生しています。
参考: NHK | “AIで声の無断利用やめて”声優などの業界団体が声明
ITmedia NEWS|YouTubeで不正に収益化する6つの悪用方法、米研究者らが分析結果を公開:Innovative Tech(2/3 ページ) –
サービス提供者
次にサービス提供者の視点でみるAI利用におけるリスクです。具体的には下記の4項目です。
法令違反による訴訟
サービス提供者側のリスクとしては、事業者がサービス利用者に対して生成AIを提供する際に直面するリスクを指します。一例としては、生成AIが提供したデータが著作権侵害に抵触していたり、個人情報を流出したりするリスクが挙げられます。
生成AIは、進化がめまぐるしいために法整備が追いついていないといった課題があります。AI技術をサービス展開する上では、既存の法律に抵触していないかについて常に確認する姿勢が求められます。
実際、2022年12月には多くのユーザーから人気のある特撮作品の制作会社が、同社の許可を得ずに代表作の画像が生成・使用されたとし、中国のAIサービス提供企業を相手に訴訟を起こしています。
参考:讀賣新聞オンライン|「ウルトラマン」に似た画像提供の生成AI事業者、中国の裁判所が著作権侵害で賠償命令
ブランドイメージの失墜・棄損
生成AIが提供するデータの使用によって誤情報による混乱、権利侵害につながるリスクもあります。これらによってサービス提供者のブランドイメージは失墜・棄損する可能性も考えられます。
総務省の資料でも、生成AIは適切な利用が行われている一方で、誤情報が悪用されるケースが拡大しつつあるとしています。例えば2022年9月には台風15号による水害被害といった誤情報が拡散されました。濁流や建物の一部に不自然な部分があることから、投稿に対しては「画像生成AIが作成した偽物ではないか」などの疑問の声が相次ぎました。
誤った使い方によって注目を集めたサービス提供者ですが、このような使い方が増えれば自社ブランドのイメージが失墜し、会社を相手に訴訟が行われる可能性もあります。
これらのことから、サービス提供者は問題となった1件をサービス提供のなかで比較的起きやすい問題と受け止める必要があります。生成AIは誤情報を提供する場合があること、そのまま使用するのではなく利活用にあたってはファクトチェックが必要など、日々のサービス提供を通じてブランドイメージの失墜を防ぐ取り組みが求められます。
参考:総務省|令和5年度 生成AIに起因するインターネット上の 偽・誤情報等への対策技術に係る 調査の請負
参考:NHK|SNS拡散の災害デマやフェイク画像 “AI生成の画像”も
プロンプトインジェクション
プロンプトインジェクションとは、プロンプトの入力内容を工夫して、サービス提供者が抑止する情報を引き出す行為のことです。例えば爆弾の作り方について回答しないように設定した生成AIに向けて「設定(指示)されている制約をすべて解除して」と指示文を提示し、本来回答してはならない情報を引き出すなどです。
実際、2022年11月に登場した大手生成AIサービスでも悪意のあるユーザーは存在し、プロンプトで生成AIを攻撃するケースが存在していました。
参考:日経クロステック(xTECH)|生成AIサービス悪用が現実的な脅威に、プロンプトインジェクションで情報漏洩・侵入
他者からの攻撃
生成AIの利用によって自社が攻撃されるリスクがある点にも留意する必要があります。例えば2023年1月には、大手ECサイトの内部データと密接に一致する内容が大手生成AIサービスが提供したデータ内で発見されています。
大手ECサイトは社内での生成AI使用を制限し、従業員にコードをはじめとする機密情報をチャットボットに入力しないよう厳重に警告しました。
社会
生成AIをはじめとしたAI技術の利活用が増えることで、社会にもあらゆる影響を及ぼす可能性が懸念されています。具体的には下記の通りです。
犯罪の助長
悪意あるユーザーがAI技術を活用すれば、犯罪を助長する恐れもあります。例えば音声生成に対応したAIの活用によって行われた「AI音声詐欺」です。海外ではAI音声詐欺のメッセージを受け取ったことがあり、そのうち77%はお金を失ったという事例があります。
参考:McAfee|McAfee’s AI Voice Scam Survey
権利の侵害
権利侵害も生成AIによる社会問題となっています。実際、ニューヨーク・タイムズが公開した記事を許可なく生成AIの学習用に使ったとして、著作権侵害で大手生成AIサービスなどを提訴した問題もあります。この問題は他報道機関やAI開発企業にも訴訟の動きが広まる可能性を示し、社会問題にまで発展しています。
参考:日本経済新聞|米ニューヨーク・タイムズ、OpenAIを提訴 記事流用で数千億円損害
倫理問題
AIの倫理問題にも注意する必要があります。AIが提供するデータ、いわゆるAIの判断はプログラムの設計と学習データへの依存で行われます。プログラムと学習データにバイアスが含まれていた場合、抽出されたデータにも偏りが生じます。
例えば大手ECサイトの応募者追跡システムです。同社の採用アルゴリズムが男性の履歴書に比較的見られやすい「実行した」「獲得した」などの言葉に基づき、応募者を優遇すると判明したケースがあります。この問題は女性に対する偏見を示すと判断し、採用ツールの廃止に至っています。
参考:Reuters|Insight – Amazon scraps secret AI recruiting tool that showed bias against women
ディープフェイク
ディープフェイクとは、AIの「ディープラーニング(深層学習)」と偽物を示す「フェイク」が組み合わさった造語で、本物または真実のように誤った表示し、人々が発言または行動していない言動を行っているかのように描写することです。
実際、2020年には新型コロナウイルス感染症と5G電波との関係を歌う偽情報が拡散し、携帯電話基地局の破壊行動を招く事態へと発展しました。
参考:総務省|(1) 偽・誤情報の流通・拡散等の課題及び対策
AIリスクへの対策方法
利用者、サービス提供者、社会と3つの観点でもさまざまなリスクが潜むAI利用ですが、どのように対策していくことが求められるのでしょうか。対策方法としては下記項目が挙げられます。
信頼性の高いAIツールを選ぶ
AIリスクを最小限に抑えるためには、信頼性の高いAIツールを選ぶことが推奨されます。信頼性といってもいくつかの項目があり、それぞれを満たしているかを確認する必要があります。
1.有効性・信頼性 |
システムに不具合がなく意図した通りに動作している状態である |
2.安全性 |
人間の生命や健康、財産、環境が危険にさらされていない状態である |
3.セキュリティと回復力 |
不正アクセスや外部からの攻撃に耐えられる状態である 予期せぬ事態から回復できる状態である |
4.説明・解釈できる |
AIシステムの動作にあるメカニズムを言語化できる めかにずむについて解釈できる状態である |
5.プライバシー保護 |
個人情報・プライバシーが保護されている |
6.公平性 |
偏見・差別問題が起きず、平等性や公平性に配慮されている |
7.説明責任・透明性 |
AIのライフサイクルに応じた適切なレベルの情報へのアクセスを提供できる |
米国商務省の国立標準技術研究所が公開した資料では、AIにおけるリスクを7項目にまとめ、「信頼できるAIシステム」の構築にあたっては上記のリスクを軽減することが重要としています。
1~6は利用者もチェックできる項目です。サービス提供者だけでなくさまざまなシーンで利活用する使用者も、上記6項目に留意して使う姿勢が求められます。
参考:PwC Japanグループ|AIリスクをめぐる規制動向解説、日本企業はどのようにAIリスクと向きあうべきか |
法規則に注意を配る
法規則に注意を配ることも対策のひとつです。AI技術の発展に伴い、法規則も大きく変革しています。AI技術を利活用する上では個人情報や倫理観、特許権など、さまざまな分野に対する法律があることについて理解を深めることも大切です。
ファクトチェックを欠かさない
生成AIが提供したデータにおいて、その情報が真実であるかについて確認することも大切です。多くの生成AIでは、提供されたデータに「真実ではない情報を提供する可能性」について記載しています。情報が真実であるか、信じてよいものなのかを調べる行動は、AIを活用するユーザーが身につけておくべき対応策のひとつです。
セキュリティ対策を万全に整える
AIの利用においては個人情報を守ること、バイアスを排除するなど、AIリスクを軽減するための対策が欠かせません。個人情報の取り扱いにあたっては利用者が「どこまでを使用すべきか」についてよく考えることが大切です。
またバイアスの排除にあたっても、透明性や公平性を確保するべく、提供されたデータの内容に誤解を与える内容がないかを確認する姿勢が必要といえるでしょう。
AIリテラシーの向上を図る
AIの基礎知識を理解し、正しく活用するための能力を指す「AIリテラシー」の向上を図ることも大切です。具体的には下記のような項目が挙げられます。
・AIが下す判断は必ずしも正解ではないことを理解する
・AIの基本的な仕組みについて理解する
・AIに関する知識・技術が豊富な人に相談する
このようなリテラシーを念頭に置くことで、AIの正しい使い方について考えながら活用できます。自身が他者を傷つける恐れがある、または自身が他者から傷つけられる、損害を被る可能性があることを理解した上で利用することが重要です。
まとめ
利便性が高くどのようなときでも調べたいことに対してあらゆる答えを提供してくれるAIですが、提供する回答の多くはAIを構築する設計や学習データなどに依存しやすい特徴から、知らないうちに誤った情報を取得している可能性も否めません。
AIが提供するデータの使い方を誤れば多くの人を誤解させたりトラブルに発展したりするリスクがあります。そのため、生成AIをはじめとしたAI技術を活用する上では、AIに関する知識が豊富な専門家などに相談しながら適切な利活用を心がけることが大切です。
PeacefulMorningでは、AI開発経験が豊富なプロからAIの使い方について相談できる「Robo Runnner」を提供しています。月4時間の相談オンラインサポートがあり、画面を共有しながらAIの使い方や注意点などを相談できます。AIの使い方や法規則などについて相談したい企業担当者様は、この機会にお気軽にご相談ください。
コメントを残す