【Netskope】生成AIを毎日使ってる営業が、2つのレポートを読んで考えたこと
こんにちは、ネクストモード株式会社で営業を担当している、ほりです。
ネクストモードでは様々なSaaSを駆使しながら日々の業務を進めていますが、最近、圧倒的に「仕事の相棒」になっているのが生成AIです。 メールの推敲、長時間ミーティングの議事録要約、提案書のたたき作成など、もはや生成AIなしの業務は考えられないほど便利になりました。
ただ、現場でゴリゴリに使い込んでいるからこそ、ふと頭をよぎる瞬間があります。 「これ、セキュリティ的に本当に大丈夫なんだっけ?」 今回は、そんな営業現場のモヤモヤを、Netskopeの最新レポートと最近ネクストモードが発表したレポートから考えてみたいと思います。
世界の現状:Netskope社のレポートが示す「うっかり漏洩」の急増
まず1つ目は、私たちも普段からお世話になっているNetskope社の最新レポート『Netskope クラウドと脅威レポート 2026』です。
このレポートが示しているのは、世界中で生成AIの利用が爆発的に伸びている一方で、ソースコードや規制対象データ(個人情報・財務情報など)、知的財産といった機密情報をうっかり入力してしまう「データポリシー違反」が前年比で約2倍に急増しているという事実です。
▼ Netskope クラウドと脅威レポート 2026
https://www.netskope.com/jp/resources/cloud-and-threat-reports/cloud-and-threat-report-2026
営業の立場からすると、これは決して他人事ではありません。 「お客様からの長文メールを大至急要約したい」 「商談ログから見積の要点だけサクッとまとめたい」 そんな時、ついそのままプロンプトに貼り付けたくなる誘惑は常にあります。 世界中の企業が、「AIの利便性」を享受するために「うっかり情報漏洩」のリスクと隣り合わせになってしまっているのが、このレポートから読み取れます。
.png?width=2896&height=1440&name=Gemini_Generated_Image_vzytggvzytggvzyt%20(1).png)
日本のリアル:ルールはあっても運用は「現場任せ」
では、日本の企業はどうでしょうか。先日ネクストモードが公開した従業員1,000名以上の企業のセキュリティ・DX推進担当者様を対象とした独自調査レポート『生成AI利用とセキュリティ統制の現在地』を見ながら考えてみました。
詳細はぜひレポート本編でご覧いただきたいのですが、私が結果を見て一番気になったポイントがあります。 それは、多くの企業で生成AIに関するガイドラインや利用ルール自体は整備されているものの、最終的なデータ入力の判断や保護の運用は、現場の社員一人ひとりの認識と手作業に委ねられているという実態です。

レポート本編では、他社がどこまでガイドラインを整備しているのか、現場と情シスの認識ギャップがどのくらいあるのか、統制が進んでいる企業はどんな取り組みをしているのか、といった具体的な調査結果を、グラフや数字とともにまとめています。 「自社の生成AI対策、他社と比べてどのくらいの位置にいるんだろう?」と気になった方は、社内議論の叩き台としてもお使いいただけるはずです。
▼ 【無料ダウンロード】調査レポート『生成AI利用とセキュリティ統制の現在地』はこちら
https://info.nextmode.co.jp/white-paper/202604_ai_security
「現場依存」がもたらすジレンマ
これ、営業として本当にリアルな悩みです。 ガイドラインを読んで理解したと思っても、新しいAIの機能や業務内容の変更が発生するたびに 「このデータはAIに入れていいんだっけ?」 と立ち止まるのは、スピード勝負の営業現場にとって大きなタイムロスになります。
一方の情シス部門から見れば、「ルールは出したものの、現場が本当にそれを守れているかは見えない(シャドーAI)」という心配を抱え続けてしまっている状態ではないでしょうか。 ルールによる統制と、現場の実態の間に生まれるこのギャップこそが、いま日本企業が直面している共通の課題だと感じました。
解決のカギは、システムが「裏側でしっかりナビゲート」してくれること
現場の「スピードを落とさず使いたい」と、情シスの「安全に守りたい」。 この両方を実現するためには、人間の努力やルールの徹底だけで解決できるフェーズではなくなってきていると思います。
そこで重要になるのが、人任せにするのではなく、システムとして「ガードレール」を敷く仕組みです。 例えば、私たちも自社で活用しているNetskopeでは、次のような統制を実現しています。
- インスタンス制御: 会社が認めた安全なAIに対しては会社アカウントでのアクセスのみを許可し、個人アカウントでの利用は自動的に制限する。
- リアルタイムコーチング: 現場がうっかり機密情報を入力しそうになった瞬間、画面上で「その操作はリスクがあります」と通知を表示し、正しい行動を促す。
ちなみにNetskopeは、世界で1,600を超える生成AIアプリを継続的にトラッキングしており、その知見をもとに、ChatGPTやGeminiといったメジャーどころだけでなく、現場が個人で使い始めがちなマイナーなAIツールまで可視化・制御できるのが強みです。 「ガイドラインで決めたつもりでも、マイナーなAIで抜け道を作られる」という事態を技術側からしっかり押さえられる仕組みになっています。
これなら、現場はガイドラインをいちいち読み返さなくてもシステムが「ここまでは安全」と教えてくれますし、情シスも「人の善意だけに頼らず、システムでリスクの可視化・制御ができている」という確かな安心感を得られます。
まとめ:「禁止」ではなく「安全に使い倒す」環境へ
生成AIは、正しく使えば営業の機動力も、企業全体の生産性も劇的に高めてくれる強力な武器です。 「危ないから全部禁止!」にしてしまうのは、あまりにももったいない選択です。
大切なのは、現場の自由度を奪わずに、安全に使い倒せる環境をどう作るか。 それが、これからの企業の競争力に直結していくはずです。
「ルールは作ったけれど、現場の実態が見えていなくて不安」 「生成AIをもっと安全に全社展開したい」 そんな課題感をお持ちの方は、他社の対応状況のヒントとして、ぜひネクストモードの調査レポートをご活用ください。

▼ 【無料ダウンロード】調査レポート『生成AI利用とセキュリティ統制の現在地』はこちら
https://info.nextmode.co.jp/white-paper/202604_ai_security
Netskope についてのお問い合わせ
そして、「具体的にシステムでどう守ればいいの?」と気になった方は、ぜひネクストモードにお気軽にお問い合わせください。 現場と情シスの架け橋となる最適な環境づくりを、全力でお手伝いさせていただきます!