なぜガイドラインが必要か

ChatGPTやCopilotなどの生成AIツールは業務効率を劇的に向上させますが、ルールなき利用は重大なリスクを伴います。実際に、従業員がChatGPTに機密情報を入力してしまう事例が世界中で報告されています。

ガイドラインを策定することで、リスクを最小化しながらAIの恩恵を最大化するバランスを取ることができます。「使うな」ではなく「こう使え」というアプローチが重要です。

生成AI利用のリスク

リスク具体例対策
情報漏洩機密情報・個人情報をAIに入力入力禁止情報の定義、DLP連携
著作権侵害AI生成物をそのまま成果物として使用出力物の確認ルール
ハルシネーションAIが事実でない情報を生成ファクトチェックの義務化
品質リスクAI出力をレビューせずに顧客へ送信人間によるレビュー必須化
依存リスクAIなしでは業務ができなくなるAIはアシスタント、意思決定は人間

ガイドラインの構成

内容
1. 目的AIの業務活用を推進しつつ、リスクを管理するための基本方針
2. 適用範囲対象者(全従業員)、対象ツール(ChatGPT、Copilot等)
3. 利用ルール入力禁止情報、出力物の取扱い、利用報告
4. 承認済みツール会社が承認したAIツールの一覧と利用条件
5. 禁止事項未承認ツールの使用禁止、機密情報の入力禁止
6. インシデント対応誤って機密情報を入力した場合の報告手順
7. 教育・研修年2回のAIリテラシー研修

具体的なルール例

入力禁止情報

  • 個人情報(氏名、住所、電話番号、マイナンバー)
  • 顧客の機密情報(契約内容、取引条件、財務データ)
  • 社内の未公開情報(M&A計画、人事異動、新商品情報)
  • ソースコード(社内システムの機密コード)
  • パスワード・認証情報

出力物の取扱いルール

  • ファクトチェック:AI出力の事実関係を必ず人間が確認する
  • 著作権確認:AI生成コンテンツをそのまま公開しない。人間が加筆・修正する
  • 社外送信時のレビュー:AIが作成したメール・文書は上長レビュー後に送信

承認済みツールの選定

ツールデータ取扱い推奨度
Microsoft Copilot(M365統合)テナント内にデータが保持、学習に使用されない★★★
ChatGPT Team / Enterprise学習に使用されない、SOC2準拠★★★
ChatGPT 無料版入力データが学習に使用される可能性あり★(機密情報入力禁止)
Claude Pro / Team学習に使用されない★★★
Google Gemini for WorkspaceWorkspace内にデータが保持★★★

効果測定

  • 利用率:月間アクティブユーザー数(目標:全従業員の50%以上)
  • 時間削減効果:AIを使った業務の所要時間削減率(目標:30%以上)
  • インシデント件数:AI関連の情報漏洩・誤使用の報告件数(目標:0件)
  • 満足度:従業員アンケートによるAIツールの満足度(目標:4.0/5.0以上)

まとめ

AI利用ガイドラインは「禁止」ではなく「安全な活用の推進」が目的です。入力禁止情報の明確化、承認済みツールの選定、出力物のファクトチェックを柱とし、年2回の研修で全社に浸透させましょう。

ガイドライン文例(抜粋)

📋 AI利用ガイドライン(社内通知文例)

本ガイドラインは、当社における生成AIツールの安全かつ効果的な業務活用を推進するために定めるものです。全従業員はAIを「業務を補助する道具」として活用し、最終的な判断と責任は常に人間が負うことを原則とします。

【禁止事項】個人情報、顧客機密情報、未公開の経営情報、社内システムのソースコードをAIツールに入力することを禁止します。

【推奨事項】文書の下書き作成、情報整理、アイデア出し、翻訳・要約にAIを積極的に活用してください。

E

BTNコンサルティング 編集部

株式会社BTNコンサルティング|情シス365 運営

Microsoft 365・Google Workspace導入支援、IT-PMI(M&A後のIT統合)、セキュリティ対策を専門とするITコンサルティング企業。中小企業の「ひとり情シス」を支援し、ITの力で経営課題を解決します。