AI利活用と情報セキュリティ
企業で生成AIの活用が広がる一方で、「どこまでAIに入力してよいのか」「何を根拠に可否判断するのか」が曖昧なまま運用が始まっているケースも見受けられます。
今回は、AI活用と情報セキュリティについて整理します。
1.情報の分類と「入力してよい範囲」の線引き
まず必要なのは、情報を機密度で分類し、AIに入力可能な範囲を定義することです。
一般に、顧客情報(個人情報を含む)、取引先の契約条件、見積・原価、設計図面、障害情報、脆弱性情報、認証情報、未公開の経営情報などは、外部サービスへ送信しないルールとする企業が多いでしょう。
ポイントは「AIが有料か無料か」ではなく、「入力した情報が外部環境に出る可能性があるか」「再利用(学習・改善)に回る可能性があるか」「第三者提供や越境移転の条件がどうなっているか」を基準に判断することです。加えて、入力前に機密情報をマスキング(データの一部削除)する、要約して固有名詞を落とす、社内の承認手続きを設ける、といった具体的な運用ルールが実務上は現実的です。
2.データ所在地・契約条件・法規制の見落とし
次に確認すべきは、AIサービスのデータ取り扱い条件です。
利用規約や管理画面の設定により、入力データが学習に使われるか、ログがどの程度保持されるか、委託先やサブプロセッサの範囲、データの保存場所(リージョン)などが異なります。
データが海外で処理・保存される場合、相手国の法令(政府機関による開示要請を含む)の影響を受ける可能性があり、万一の事故時に契約・管轄・証拠保全・実効性の面で対応が難しくなることがあります。国内法が常に適用されない、という単純な話ではありませんが、越境を伴うことでリスク評価と統制が複雑化する点は押さえるべきです。
したがって、重要情報を扱う用途では、リージョン指定やデータ利用制御(学習利用の無効化等)が可能なエンタープライズ向けサービスを選ぶ、契約で取り扱い範囲を明確にする、といった調達・契約面の考慮は必要です。
3.自社で完結させる選択肢:オンプレミス/国内クラウド
機密性の高い業務でAIを使う場合、「外部にデータを出さない」構成が有力です。
オンプレミスでは、GPU搭載PC等にオープンウェイトLLM(の公開されている学習済みLLM、多くはビジネス利用が可能なライセンス形態)を導入し、社内ネットワーク内で完結させます。最新の大規模モデルに比べて精度面で割り切りが必要な場面はありますが、データ流出経路を最小化でき、外部に情報を送出するリスクを避けることができます。一方で、モデル更新、システムの脆弱性対応、アクセス制御など運用負荷は一定程度発生します。
国内データセンタを前提としたクラウド構築では、国内リージョン上に自社専用のAI環境を構成することで、権限制御や監査ログ、ネットワーク分離、暗号化等の統制を組み込みやすくなります。オンプレミスより運用を標準化しやすくなり、運用コストを抑えることにもなります。
もちろん、一般従業員向けにアプリやUIを工夫するには、相応のシステム化が必要で、そこは通常のITシステム構築と同様に、要件定義や品質管理等は必要になります。
4.まとめ
AI活用で生産性向上を狙う企業は今後も増えます。
しかし、情報分類や入力基準、サービス選定基準が未整備のまま汎用AIを利用すると、既存の情報セキュリティ対策に“漏れ”が生じ、取引先評価や信用リスクに直結しかねません。
まずは「入力禁止情報の定義」「マスキング(データの一部削除)・承認・ログ管理」「契約・設定(学習利用、保存場所等)の確認」を最小セットとして整備し、その上で用途に応じてオンプレミスや国内クラウドなど適切な構成を選ぶことが現実的です。
当事務所でも、用途と機密性に応じて環境を分け、外部送信を抑制した安全な運用のもとでAIを活用しています。AIは“使えば成果が出る道具”ではなく、“統制してこそ価値が出る基盤”として位置付けることが肝要です。
ご興味がございましたら、こちらからお願いします。

