生成AIは業務のさまざまな場面で使われている。しかし使い方を誤れば、機密情報や個人情報が漏えいするリスクもある。漏えいを防ぐための対策を5つ紹介する。
テキストや画像を生成するAI(人工知能)技術「生成AI」の使い方を誤れば、個人情報や機密情報が漏えいする恐れがある。AIモデルの学習データに機密情報が含まれていたり、攻撃者が悪意のあるプロンプト(AIツールへの指示や命令)を入力して情報を漏えいさせたりする可能性がある。漏えいのリスクを減らすために有用な対策を5つ紹介する。
AIモデルの学習データから機密情報を削除すれば、漏えいのリスクを減らすことができる。ただしAIモデルの使用目的によっては、学習に機密データが必要となる場合もある。
サードパーティーベンダーが提供するAIサービスの導入を検討する際は、ベンダーの取り組みを精査する。そのサービスが企業のデータをどのように使用、保護しているか、データを安全に管理してきた実績があるかどうかを確認する。
生成AIが出力するデータを監視して、エンドユーザーが入手できる出力結果を制限する。例えば、エンドユーザーが財務データを閲覧できないようにしたい場合、AIモデルの出力結果からそうしたデータをフィルタリングする。そうすれば、エンドユーザーが機密情報にアクセスすることはできない。
十分にリスクを検証していないといった理由で、従業員の使用を許可できないAIサービスをブロックすることも一つの手だ。ただし、企業内のエンドポイントでAIアプリケーションやサービスをブロックしても、従業員が私用デバイスで利用する可能性は残る。
AIモデルの出力結果がネットワークやストレージ上で暗号化されていない場合、データ漏えいにつながる可能性がある。デフォルトでデータの暗号化を有効にしたり、既知の脆弱(ぜいじゃく)性が存在するサービスへのアクセス権限を最小限にとどめる「最小特権の原則」を実践したりして、ITインフラを保護することが有用だ。
TechTarget.AI編集部は生成AIなどのサービスを利用し、米国Informa TechTargetの記事を翻訳して国内向けにお届けします。
Copyright © ITmedia, Inc. All Rights Reserved.
本記事は制作段階でChatGPT等の生成系AIサービスを利用していますが、文責は編集部に帰属します。
いまさら聞けない「仮想デスクトップ」と「VDI」の違いとは
遠隔のクライアント端末から、サーバにあるデスクトップ環境を利用できる仕組みである仮想デスクトップ(仮想PC画面)は便利だが、仕組みが複雑だ。仮想デスクトップの仕組みを基礎から確認しよう。
「サイト内検索」&「ライブチャット」売れ筋TOP5(2025年5月)
今週は、サイト内検索ツールとライブチャットの国内売れ筋TOP5をそれぞれ紹介します。
「ECプラットフォーム」売れ筋TOP10(2025年5月)
今週は、ECプラットフォーム製品(ECサイト構築ツール)の国内売れ筋TOP10を紹介します。
「パーソナライゼーション」&「A/Bテスト」ツール売れ筋TOP5(2025年5月)
今週は、パーソナライゼーション製品と「A/Bテスト」ツールの国内売れ筋各TOP5を紹介し...