社内でAIを使っていいの?Claude・ChatGPT・Gemini・Copilot・Perplexityの安全性を現役情シスが比較【2026年版】
この記事でわかること
  • AIサービスが抱える企業利用上のリスクとは何か
  • Claude・ChatGPT・Gemini・Microsoft Copilot・Perplexityのデータ取り扱い比較
  • 「無料プラン」と「法人プラン」で何が違うか
  • 経営者・マネージャーが今すぐ決めるべきこと

「うちの社員がChatGPTに社内の情報を入力しているかもしれない」——そんな不安を抱える経営者・マネージャーが増えている。生成AIの業務利用が一般化する中、「どのサービスが安全で、どこに気をつけるべきか」を正確に把握している企業はまだ少ない。

この記事では、主要な5つのAIサービスのデータ取り扱いを比較し、企業として取るべき対応を整理する。

▼まず「AIのリスク」とは何か

企業がAIを業務利用する際に問題になるのは、主に以下の3点だ。

  • 入力した情報がAIの学習に使われる:社員が入力した内容が将来のAIモデルの学習データになる可能性
  • 入力した情報が他のユーザーに見える:システムの不具合等により、第三者に情報が漏れるリスク
  • 人間のレビュアーに見られる:品質改善のためにAI提供企業のスタッフが会話を確認するケース
⚠️ 特に注意すべきは「無料プランでの業務利用」
多くのサービスで、無料プランはデフォルトでデータ学習が有効になっている。社員が個人アカウントで業務に使っている場合、社内情報が学習データに使われているリスクがある。

▼各サービスのデータ取り扱い比較

サービス 無料/個人プラン 法人プラン 人間によるレビュー
Claude(Anthropic) 設定次第(オプトアウト可) 学習なし 原則なし
ChatGPT(OpenAI) 学習あり(デフォルト) 学習なし 不正利用監視あり
Gemini(Google) 学習あり(デフォルト) 学習なし 個人版は一部あり
Microsoft Copilot 設定次第 学習なし 法人版はなし
Perplexity 学習あり(デフォルト) 学習なし・7日で削除

※上記は2026年3月時点の情報。各社のポリシーは随時変更される可能性があるため、最新情報は公式サイトで確認すること。

▼サービス別の詳細

① Claude(Anthropic)

2025年8月にAnthropicがプライバシーポリシーを変更。Free・Pro・Maxの個人プランはオプトアウト方式に変更され、設定でオフにしない限り会話がAI学習に使われる可能性がある。一方、Team・Enterprise・APIの法人プランは引き続き学習対象外で、企業データが学習に使われることはない。

⚠️ 社員が個人アカウント(Free/Pro)で業務利用している場合、設定確認が必要。設定は「プライバシー設定」から変更可能。
✅ 法人プランであれば引き続き高い保護水準を維持。

② ChatGPT(OpenAI)

無料・Plus・Proプランはデフォルトで学習が有効になっている。設定から「すべての人のためにモデルを改善する」をオフにすることでオプトアウト可能だが、社員全員が設定を徹底できるかが課題だ。

一方、法人向けのBusinessプラン・Enterpriseプランでは学習がデフォルトでオフになっており、SSO・MFAなど高度なセキュリティ機能も利用できる。企業で使うなら法人プランの契約が必須と考えてよい。

⚠️ 2025年5月に米国連邦裁判所がOpenAIに対し会話データを無期限保持するよう命令。一時的に削除できないデータが発生している点も留意が必要。

③ Gemini(Google)

個人向け無料版は入力内容がAI学習に使われる場合があるとGoogleのポリシーに明記されている。Google Workspace(法人契約)のGeminiでは、入力データが学習に使用されないことが明言されており、人間によるレビューも行われない。

Google Workspaceをすでに契約している会社であれば、2025年1月以降BusinessプランでもGeminiが追加費用なしで使える。社員が個人アカウントで使っている場合は、Workspace経由での利用に統一させることが重要だ。

💡 Google Workspace管理者は管理コンソールからGeminiの利用状況を可視化・制御できる。

④ Microsoft Copilot

Microsoft 365 Copilot(法人向け)では、テナント管理者がデータ共有をオプトインしない限り、AIモデルの学習にデータは使われない。データはMicrosoft 365のサービス境界内に留まり、AES-256暗号化・TLS1.2以上での通信保護が適用される。

個人向けのCopilotはプランと設定によって異なるため注意が必要。社員が個人で使っている場合は盾アイコン(商用データ保護)が表示されているかを確認させること。

⑤ Perplexity

無料版・Proプランでは入力内容がAI学習に利用される可能性がある。Enterprise版ではデータが学習に使われず、アップロードしたファイルは7日後に自動削除される。SOC2認証を取得しており、SSO対応など企業向けのセキュリティ機能も整っている。

リアルタイム検索が強みのツールであり、調査・情報収集用途で使われることが多いが、無料版での業務利用は避けた方がよい。

▼経営者・マネージャーが今すぐやるべきこと

「まず何をすればいいか」を3点に絞る。

  • 社員がどのAIを使っているか把握する:無料の個人アカウントで業務情報を入力していないか確認する
  • 利用するサービスを法人プランに統一する:無料プランでの業務利用を禁止し、セキュリティが担保された法人プランに一本化する
  • 「入力してはいけない情報」のルールを作る:法人プランでも、個人情報・機密情報・未公開の財務情報などは入力しないというルールを社内で整備する
「禁止」より「ルールを作って使わせる」方が現実的
AIを全面禁止しても抜け道が生まれるだけだ。セキュリティが担保されたプランに統一した上で、「何を入力してはいけないか」を明確にする方が実効性が高い。

▼まとめ

各サービスとも、法人プランであれば一定のセキュリティ水準は確保されている。問題は「社員が個人の無料アカウントで業務情報を入力してしまっている」ケースが見えにくい点だ。

経営者・マネージャーとして取るべきアクションはシンプルだ。利用サービスを把握し、法人プランに統一し、ルールを作る。この3ステップを整備するだけで、AIに関するセキュリティリスクの大半は防げる。

📩 社内のAI利用ルール整備でお困りの方へ

「社員がどんなAIを使っているか把握できていない」「利用ルールを作りたいが何から手をつければいいかわからない」という段階からご相談いただけます。顧問プラン(月6万円〜)から対応可能です。

無料相談・お問い合わせはこちら →