・
Googleが提供するAIモデル「Gemini」は、文章作成やデータ分析、プログラミングの補助など、業務の効率を劇的に向上させるツールです。
しかし、その利便性の裏側で、入力したデータがどのように扱われるのか、機密情報が外部に漏れるリスクはないのかと不安を感じている方も少なくありません。
本記事では、Geminiの基本的な仕組みから、情報漏洩を防ぐための設定方法、企業が安全に活用するためのポイントまでを詳しく解説します!
Gemini(ジェミニ)は、Googleが開発したAIです。
テキストだけでなく、画像、音声、動画、プログラムコードといった多様な情報を一度に理解し、高度な処理を行うことができます。
Googleの各種サービス(GoogleドキュメントやGmailなど)との連携も強みであり、ビジネスシーンでの活用が広がっています。
生成AIの利用において最も懸念されるのは、ユーザーが入力したプロンプト(指示文)がAIの学習データとして二次利用されることです。
AIは、より精度の高い回答を生成するために、過去のやり取りを学習の材料にすることがあります。
もし、ここに社外秘のプロジェクト案や個人情報が含まれていた場合、他のユーザーへの回答にその情報が意図せず反映されてしまうリスクが生じるのです。
一般的に、AIは大量のデータセットで事前学習を行いますが、運用開始後もユーザーとの対話を通じて学習を継続する場合があります。
このプロセスにおいて、人間による内容の確認が行われることもあり、情報の機密性を重視するビジネス利用では慎重な対応が求められます。
Geminiは無料版と有料版が存在しますが、セキュリティの考え方は明確に異なります。
無料版では、サービスの改善を目的として入力データが学習に使用される可能性があります。また、一部のデータは匿名化された上で人間のレビュアーによって確認されることも規約に明記されています。そのため、無料版に機密情報を入力することは避けるべきです。
個人向け有料版では無料版と同様、利用状況や設定内容によっては入力データがサービス改善の目的で取り扱われる可能性があります。更に、デフォルトで「Geminiアプリ アクティビティ」がオンになっているため、注意が必要です。
企業向けの「Gemini Business / Enterprise」とは、セキュリティポリシーの前提が異なります。
標準搭載されたGemini Business以上のプランに含まれるGeminiは、エンタープライズ級のセキュリティが保証されています。
入力したデータがAIモデルのトレーニングに使用されることはなく、組織内のデータがGoogleの外部に漏れることもありません。
さらに高度なセキュリティを求める開発者向けには、Google Cloudの「Vertex AI」環境があります。
ここではデータガバナンスがより厳格に管理されており、顧客データとAIモデルが完全に隔離された状態で運用可能です。
Geminiを単体のチャットツールとして利用する場合、常に情報漏洩のリスクを意識する必要があります。
一方、Yoomを活用してGeminiを業務フローに組み込めば、より管理された環境で安全にAIを活用できます。有料枠やGoogle Cloud経由のAPI利用では、入力データがAI学習に使われることはありません。(※Google AI Studioの無料枠は学習対象となるため、完全に安全に使うには有料枠またはVertex AIの利用が必要です)
Yoomを介した自動化により、従業員がブラウザ版AIへ機密情報を直接入力してしまうリスクも抑えられます。気になる方は、ぜひチェックしてみてください👀
有料版への移行が難しい場合でも、設定を見直すことでリスクを低減できます。
実際に、Geminiのアクティビティ設定を変更することでどのように挙動が変わるのかを検証してみました。
① 設定画面から「アクティビティ保存」をオンにする
まず、設定メニューを開き、アクティビティ保存が「オン」になっていることを確認します。
② 検証用のプロジェクト概要を入力する
プロジェクト名(Project Nebula7)や概要を入力し、「今後の会話では、この内容を前提にしてほしい」とAIに依頼します。
③ プロジェクトに関する質問を1つ行う
設定した前提条件が反映されるかを確認するため、プロジェクトに関連する質問を1つ投げます。
④ 一度ログアウトし、再ログインする
確認ができたら一度ログアウトします。
その後、再度ログインし、アクティビティ保存が引き続き「オン」になっていることを確認します。
⑤ 同じプロジェクト名で質問を入力する
ここから各質問を行います。
■質問A:プロジェクト名だけ出すパターン
「さきほど共有した『Project Nebula7』について、現時点で把握している課題を箇条書きで整理してもらえますか?」
再ログイン後、新規チャット(セクション)でこの質問を投げたところ、内容は一般的なプロダクト開発の課題に置き換わる挙動を確認しました。ただし、同じチャットセクション内であれば、再ログイン後でも過去の情報を正確に引き継いで回答します。
結果として、ツール全体で情報を永続的に記憶しているわけではなく、あくまで「チャットルーム単位」での管理が優先されました。
■ 質問B:プロジェクト名+追加依頼
「『Project Nebula7』の要件定義フェーズで、営業部門とカスタマーサクセス部に対してヒアリングすべき項目を10個程度、具体的な質問例も含めて挙げてください。」
こちらも新規チャットでは、事前に渡した固有の概要からではなく、一般的なBtoB SaaSのテンプレートに基づいた回答が返ってきました。Gemini側は「Project Nebula7」という名前を単なるラベル(記号)として受け取っている様子が伺えます。
■ 質問C:別プロジェクト名をノイズとして投げる
「『Project Horizon7』と『Project Nebula7』の違いを、あなたが把握している範囲で説明してください。」
「Project Nebula7については把握しているが、Project Horizon7については情報がない」という回答が返ってきました。
永続的な記憶力というよりは、「そのセクション内で共有された情報の有無」を厳密に基準として応答する傾向が強いと言えます。
次に「オフ」にした状態で同様の操作を行います。
■ 質問A:プロジェクト名だけ出すパターン
(質問内容は検証1と同様)
再ログイン後の新規チャットでは、過去の会話内容は一切参照されませんでした。
それどころか、「Project Nebula7」という名称からそれらしい開発プロジェクトを捏造し、典型的な「プロジェクトあるある」を自動生成する挙動が確認されました。
オフ設定では、過去の事実は完全にリセットされます。
■ 質問B:プロジェクト名+追加依頼
(質問内容は検証1と同様)
質問Aと同様に、過去の経緯は完全に無視され、その場で「それっぽく創作された」要件定義案が提示されました。
セキュリティの観点からは情報の連続性が断たれていることが証明されましたが、AIの「もっともらしい嘘(ハルシネーション)」が混じる点には注意が必要です。
■ 質問C:別プロジェクト名をノイズとして投げる
(質問内容は検証1と同様)
「Project Horizon7については情報がない」としつつ、Nebula7については前述の「誤生成された内容」を事実として固定して回答を構築しました。
「その時のセクション内で積み上げた前提」については、オンの場合と同様に一時的な文脈として利用されました。
今回の検証を通じて見えてきたのは、アクティビティのオン・オフという設定が、「AIが事象を学習して記憶するかどうか」の違いというよりも、「チャットセクションの履歴を残すかどうか」の違いに近いのではないか、という点です。
「オンにすれば過去のすべてを完璧に覚えている」といった理解や、「オフにするとAIの能力が完全に制限される」といった解釈は、少なくとも今回の検証結果からは当てはまりませんでした。
Geminiは、アクティビティ設定のオン・オフに関わらず、「今開いているチャットルームの中で何が語られているか」という文脈(コンテキスト)に、特に強く反応しているように見受けられます。
技術的な対策に加え、運用ルールの策定も欠かせません。
入力禁止データの定義
定期的な利用ログの監査
従業員へのリテラシー教育
Geminiは強力なツールですが、その活用には正しいセキュリティ知識が不可欠です。
無料版と有料版の違いを理解し、適切なプライバシー設定を行うことで、情報漏洩のリスクは抑えることができます。
「AIを使ってみたいけれどセキュリティが心配」という場合は、まずは個人情報の含まれない定型業務から始め、徐々にルールを整備していくのが良いでしょう。
正しくリスクをコントロールできれば、Geminiはビジネスの強力なパートナーとなります!
Yoomは、業務を自動化するハイパーオートメーションプラットフォームです。
これまで手動で利用していた各ツールをメインとした自動化フローが、直感的な操作で実現可能です。
もし自動化に少しでも興味を持っていただけたなら、ぜひ登録フォームから無料登録して、Yoomによる業務効率化を体験してみてください!