ネクストモードの赤井です。
企業が生成AIを安全に活用するためのセキュリティ対策を解説するシリーズです。
Okta、Netskope、CrowdStrikeを活用した実践的なアプローチを紹介します。
生成AIの業務利用が急速に進む一方、情報システム部門が把握していない「シャドーAI」(従業員が個人で利用するAIサービス)が大きなセキュリティリスクとなっています。
これらのリスクに対処する第一歩が、可視化です。
Netskopeは、SASE/SSEソリューションの中核として、社内やリモートワーク環境からのあらゆるクラウド通信を監視します。これにより、シャドーAIの利用状況を詳細に可視化できます。
SkopeIT > Applicationsから「社内でどのようなAIが使われているか」を特定します。
単なる利用有無だけでなく、「誰が、どのAIを、どう使ったか」をアクティビティ(操作)レベルで可視化します。
ログイン / ログイン失敗ポスト(プロンプトの入力・送信)ファイルのアップロード / ダウンロードコピー / ペースト共有下記画像は例ですが、SkopeIT > Application Eventsからユーザーごとに、利用インスタンスと実行アクティビティを具体的に把握できます。
NetskopeはDLP機能を備えており、AIに送信されるデータの中身までチェックします。
下記画像はファイルの添付やソースコードをPOSTした際の例ですが、Incidents > DLPからどのデータか、Forensicsの設定があればその中身まで確認できます。
App Catalog > Cloud Appsから検知したAIアプリがそもそも安全なのかを、Netskope独自の評価指標(CCI: Cloud Confidence Index、クラウド信頼指数)で可視化します。
これらの項目に基づき、AIアプリ自体のリスクスコアを自動で評価します。
Netskopeは、可視化したリスクにすぐ対処できる点も強みです。
Netskopeを活用することで、シャドーAIの「利用状況」「操作内容」「送信データ」までを詳細に可視化し、情報漏洩のリスクを未然に防ぐ具体的な制御が可能になります。