Please reload page.
Reload
You exceeded rate limit. You can add your API key.
Add your API key
See pricing for our plans.
Go pricing page
Close

The server API has been updated. If it does not work well, use Ctrl+F5 to get the latest module.

Server version:
Client version: 1.0.0.161
Update

The real-time connection to the server has been disconnected. Let's reconnect.

Subscription to notifications for this device has expired. Please toggle the checkboxes ON/OFF.
Loading...
Text
H1
H2
H3
H4
Callout
Quote
Image upload
HigtyのAIとDX相談室
AIにデータを渡すのは危ない?企業機密が漏れる?MicrosoftやGoogleのサーバーの仕組みからその危険性を解説
日本の出版社からのCloudflareへの訴訟についてCloudflare側の立場を解説
日本の出版社からのCloudflareへの訴訟について出版社と日本の立場を解説
【企業向け】生成AI導入の「停滞」を打破する技術戦略。RAG精度向上とLLMOpsの実践的アプローチ
【生成AI教育】プロンプト研修だけでは失敗する理由。企業が実装すべき「技術的ガードレール」と運用リテラシー
生成AIのハルシネーション対策|RAGによる精度向上とビジネス実装の技術戦略
生成AI依存にならないために企業がすべきこととは
【プロンプトエンジニアリング】生成AIを効率的に活用する方法(初級編)
AI Readyとは?DX推進の成否を分ける「データ基盤」と「組織能力」の正体
グラウンディング(Grounding)とは?LLMの「ハルシネーション」を防ぎビジネス実装を成功させる技術要件
Copilot Agentsとは?仕組みや活用メリット、企業導入時のガバナンス対策を解説
生成AI時代の「ゼロトラスト」とは?企業が知るべきセキュリティリスクとガバナンス対策の全容
HigtyのAIとDX相談室 AIにデータを渡すのは危ない?企業機密が漏れる?MicrosoftやGoogleのサーバーの仕組みからその危険性を解説

AIにデータを渡すのは危ない?企業機密が漏れる?MicrosoftやGoogleのサーバーの仕組みからその危険性を解説

In this article

あなたのデータは、すでにクラウドにある

多くの企業ではMicrosoft365やGoogleWorkspaceを活用しています。その中でOneDriveやGoogleDriveに機密ファイルが保存され、またOutlookやGmailで社外秘の情報は機密情報などのやりとりをしていることでしょう。

つまり「会社の機密情報」は既にAzureやGCPといったクラウド基盤に保存されている状態です。

会社としてはこれらの会社に信頼してデータを預けているわけですが、これは同時にMicrosoftやGoogleはいつでも情報を見られる環境にあるとも言えます。そこに関しては既に問題にしていないわけです。


クラウド基盤の仕組み

例えばOneDriveに“機密ファイル”を保存すると、そのバックエンドにはAzure Storageが使われ、クラウド上に暗号化された形で保管されます。

Azure Storage の概要 - Azure のクラウド ストレージ | Microsoft Learn
Azure Storage プラットフォームは、Microsoft のクラウド ストレージ ソリューションです。 Azure Storage は、高可用性、セキュリティ、持続性、高度なスケーラビリティ、および冗長性を備えた、データ オブジェクト向けのストレージを提供します。 Azure Storage で使用できるサービスと、それらをアプリケーション、サービス、またはエンタープライズ ソリューションで使う方法について説明します。

同様にGoogle DriveやGoogle WorkspaceでもGoogle Cloud Platform(GCP)上に顧客データが保存され、「顧客データはお客様の指示に従って処理され、その他の目的には使用されない」という方針が示されています。

つまり「ファイルをクラウドに置く=AzureやGCPにデータを預けている」という構図が、すでに日常なのです。


AIにファイルを渡したときどこへ送られる?

次に「AIサービスにファイルを渡す」ケースを考えてみましょう。

たとえば法人向けのAzure OpenAIやGemini(Google)などでは、入力されたファイルやデータはクラウド基盤(Azure/GCP)で処理されます。

既に「クラウドにあるファイルをAIに渡す」という状況は、「そもそもクラウドに保存済のデータをどう使うか」の延長線上にあるとも言えます。

さらに利用状況を考えてみると、社員が機密情報や社外秘ファイルをAIへ渡す確率は、OneDrive/GoogleDrive上にファイルを保存する確率より低そうです。


リスクを整理

この節では、AIサービスへデータを渡す際のリスクを

①これからアップロードするデータ

②すでにクラウドに保存済のデータ

という二つの視点から整理します。加えて、実際の事例も紹介します。


これからアップロードするデータ

たとえば、機密設計図や契約書、製品プロトタイプのドキュメントを「初めてAIに渡す」場合には、以下のような危険があります:

  1. 利用しているAIサービスの契約やデータ処理ポリシーに「学習への利用を含まない」と明確に書かれていないと、入力したデータがモデル改善に使われる可能性。
  2. アップロード先のクラウドリージョン、保存期間、アクセス権限が不明確だと、意図しない第三者アクセス・外部流出のリスクが増大。
  3. 社員が無自覚に情報を貼り付けることで、社内ルールの範囲外で共有されてしまう。実際、ある企業では、技術仕様を無料チャットAIに貼り付けてしまったことで「社外秘が閲覧可能になった可能性がある」と警告を受けた事例があります。

すでにクラウドに保存されているデータ

一方、機密ファイルが既にクラウドに保存されている環境では、AIに渡すことで“保存場所”が突然変わるわけではないため、リスクの種類が少し異なります:

  1. 既存保存が暗号化・アクセス制御・ログ管理など適切に行われていれば、AI利用によって大きな新たなリスクが発生するわけではありません。
  2. ただし、クラウド保存データの「誰が/いつ/どこから」アクセスできるかの運用が曖昧であれば、すでに漏えいリスクを抱えていると考えるべきです。
  3. 具体例として、あるクラウドストレージサービスの誤設定により、アクセス権限のない第三者が数千件の企業ファイルを閲覧可能だったという事例があります。これはクラウド保存そのもののリスクを示しています。
  4. このように、AIにデータを渡すか否かという局面で注目すべきは「保存先が変わるかどうか」ではなく、「データをどこに置いているか/誰がアクセスできるか/どんな契約・運用か」という管理・運用面です。


安全に使うためのポイント

AIとクラウドを安心して使うために、次のポイントを確認してください。

  1. 企業アカウント(Microsoft365/GoogleWorkspace)を使ってクラウド保存しているか確認しましょう。
  2. AIサービスを利用する際の契約・データ処理方針を必ず確認し、「学習に使わない」「保存期間明示」といった条項があるかをチェックしましょう。


まとめ

クラウド基盤(AzureやGCP)にすでに機密データを預けている企業は多く、その延長線上でAIサービスにデータを連携する形であればリスクは増えていないというのが現状です。 「AIは危ない」ではなく、 適切な契約・設計・運用が整っていれば、AIは企業の力を支える大きな味方になります。





In this article