日本経済新聞 電子版に掲載いただきました ― 調査レポート『生成AI利用とセキュリティ統制の現在地』
はじめに
こんにちは、ネクストモード株式会社のくまがいです。
昨日(2026年4月20日)公開した独自調査レポート『「生成AI利用とセキュリティ統制の現在地」〜従業員1,000名以上の企業におけるセキュリティ・DX推進担当者150名への現状調査〜』について、ありがたいご報告があります 。
本日2026年4月21日、日本経済新聞 電子版にて、本レポートを取り上げていただきました🎉

▼ 掲載記事
企業の8割が生成AI導入 民間調査、機密データの保護には課題 - 日本経済新聞
(日経電子版 2026年4月21日 16:28 掲載 )
記事で取り上げていただいたポイント
記事では、本レポートから以下の数字を中心にご紹介いただきました。
- 生成AI利用の実態:「会社で導入している」80%、「会社としては導入していないが社員は利用している」17%。合わせて9割以上の企業で生成AIの利用実態があること
- 機密データ保護の現場依存:データ保護を「社員が手動でマスキングしている」と回答した企業が26%。約4社に1社がデータの匿名化を社員個人の対応に委ねていること
- 入力データの判断基準:生成AIに入力してよいデータの区分けについて「全社的な定義はあるが、社員の判断に委ねている」が21%
- 事業継続計画(BCP)の整備不足:生成AIサービス停止時の代替手段を「用意している」と回答したのは55%にとどまること
記事で引用いただいたネクストモードのスタンス
記事の結びでは、本ホワイトペーパーの総括部分から、ネクストモードの見解として次のような内容をご紹介いただきました。
ヒューマンエラーや判断のばらつきをゼロにすることはできない。システムが自動的にリスクを遮断するという技術転換が次に踏み出すべきステップ
これは、今回の調査レポート全体を貫くメッセージでもあります。
規程面の整備(ガイドライン策定76.0%、セキュリティ予算確保69.3%など)は大きく前進しました。しかし、運用の最終局面が「人の判断」や「人の手作業」に委ねられている限り、ヒューマンエラーや判断のばらつきによるリスクはゼロになりません。
ルールで人を律する運用から、システムで自動的にリスクを遮断する運用へ。
これこそが、生成AI時代のセキュリティ統制が次に踏み出すべきステップだと、私たちは考えています。
ホワイトペーパーのご案内
今回、日経電子版で取り上げていただいた数字は、本レポート全63ページの中のごく一部です。
レポート本編では、次のような内容を詳しく解説しています。
- 全24項目の調査結果(規程面・運用面・人間系の統制)
- 企業規模別(1,000〜3,000名 vs 3,000名以上)のクロス集計分析
- 規程による「統制」から実態の「防衛」への転換点
- OktaとNetskopeを活用した技術的ガードレールの構築アプローチ
▼ 無料ダウンロードはこちら
https://info.nextmode.co.jp/white-paper/202604_ai_security
さいごに
このたびの掲載にあたり、本レポートを取り上げてくださった日本経済新聞の記者の皆さま、そして本レポートに関心をお寄せいただいたすべての方々に、心より感謝申し上げます。
ネクストモードは「クラウドであたらしい働き方を」を合言葉に、自社でOkta・Netskopeなどのセキュリティ製品を使い倒しながら、その実践知を400社以上のお客様のSaaS導入支援に還元してきました。
生成AIの利用が当たり前になったいま、「導入は進めたけれど、セキュリティをどうすればいいのか」というお悩みを抱える企業様も多いのではないでしょうか。お気軽にご相談いただければ幸いです。