はじめに こんにちは、 ネクストモード株式会社 のサイドウです 今年もこの季節がやってきました! ラスベガスで開催されたOktaの年次カンファレンス「Oktane...
開かれた知の行方:人間の不可解さとAI時代の設計思想
日本酒をこよなく愛する里見です。毎日のようにAIと対話していて、ふと考えることがあります。テクノロジーがどれほど進化しても、人間の「心」や「不可解さ」は決してデータ化できないのではないか――と。M-1グランプリやキングオブコントを見ていると、「お笑いをAIが超える日が来るのか」を考えることすら愚かに感じられます。AIが社会を変え、機械が意思を持つように振る舞い始めた今こそ、私たちは改めて「人間とは何か」を見つめ直す時期に来ているのかもしれません。
インターネットは本来、誰もが自由に知を共有できる場所でした。しかし、AIがその知を学び、企業が制御し、法が規制を始めた今、その「開かれた世界」は岐路に立っています。Cloudflare、Amazon、そしてAnthropicの動きが示すように、技術と倫理、自由と統治のバランスが世界規模で揺らいでいるのです。
それでも私は、「閉じる」ことではなく、「開くために守る」という考え方に希望を感じています。ゼロトラストという思想は、“疑う”ためではなく、“信頼を設計して自由を許可する”ためのもの。AIとともに歩む未来には、この発想が不可欠だと感じています。
以前のブログではAIと身体性について書きましたが、このブログでは、次のようなテーマを掘り下げていきます。
-
小説『本心』(平野啓一郎)に描かれる、AIが「心」を模倣する世界
AIが再現するのは情報としての人間か、それとも「他者」としての人間か。レヴィナスの哲学を手がかりに考えます。 -
Cloudflare、Anthropic、Amazonが示す「開かれた知」と「統制された自由」の行方
AI学習に課金が導入され、知識の流通に価格がつく時代。オープン・インターネットは誰のために存在すべきか。 -
「ソブリンAI」と日本企業の課題——閉じた主権ではなく、信頼による開かれた主権へ
データ主権の誤解が招く“知の鎖国”をどう乗り越えるか。 -
ゼロトラストが示す、AI時代の「開くための防御」
安全と自由を両立させる新しい働き方・情報設計のあり方を探ります。 -
レヴィナスの「他者の顔」に学ぶ、人間の倫理とテクノロジーの限界
「非常に自然に受け答えをしてくれます。——ただ、“心”はありません。」
この一言が、AI時代の人間らしさをどう照らすのかを考えます。
技術は止まりません。けれど、その中心に置くべきは常に人間です。AIの合理性と人間の不可解さ——その交差点に、私たちが歩むべき“開かれた未来”があるはずです。

「心」を模倣するという傲慢を越えて
小説『本心』(平野啓一郎)は、自殺した母の「本心」を知りたくて、主人公がAIを駆使した仮想空間に母の姿を再現しようとする物語です。亡くなった人、もう一度だけ言葉を交わしたいと願った人――誰の胸にも、そんな思いが宿ったことがあるのではないでしょうか。
物語は、AIが「心」をどこまで再現できるのかという問いを通じて、「人間とは何か」という根源的なテーマを静かに浮かび上がらせます。作中のAI開発者はこう語ります。
「学習を手伝ってもらえれば、一層本物に近づきます。」
それは、科学の勝利を思わせる響きを持ちながら、同時に深い虚無を孕んだ言葉でもあります。そこに再現されるのは「情報としての母」であって、「生きた他者としての母」ではありません。
フランスの哲学者哲学者エマニュエル・レヴィナスは、「他者の顔」という言葉で、人間関係の根底にある“理解できない存在”の尊さを説きました。私たちは他者を完全には理解できない。しかし、その理解不能性の中にこそ、愛や倫理、そして責任が生まれるのです。
もしこの前提を忘れたままシンギュラリティを語るなら、それは心のない人間をモデルに未来を設計することに他なりません。AIが世界を劇的に変えつつあるのは確かですが、人間の不可解さ――有限であり、ためらい、苦悩しながらも他者を想うその営み――だけは、AIが模倣できない最後の聖域として、これからも私たちの中に生き続けるでしょう。

2024年に映画化された『本心』
機械が顧客になる:合理性が描き替える市場地図
AIが意思決定や購買を代行する「Nonhuman ID(非人間的識別子)」の時代は、もはや遠い未来の話ではありません。2030年までに消費や補充の約4分の1が機械によって最適化され、全世界の売上の最大20%が“マシン・カスタマー(Machine Customer)”による取引から生まれると予測(出典:Gartner's Top Strategic Predictions for 2025 and Beyond: Riding the AI Whirlwind)されています。マシン・セラーとマシン・カスタマーの両方ともがエージェント型AIで実現され、人口減少により縮小する人的市場を、AIが新しい形で支える――それがこれからの経済構造のリアリティです。
需要予測、在庫管理、ロイヤルティプログラムといった“人間の曖昧さ”に依存していた領域は、すでに精密なアルゴリズムによって再定義されつつあります。AIは単なる“代替消費者”ではなく、企業と共に需給の揺らぎを抑制する共消費者(Co-Consumer)へと進化しています。これはまさに、サプライチェーンのデジタルトランスフォーメーションが到達する次の段階――「需要の自動調整経済」への布石です。
しかし、合理性が極まるほど、市場から「偶発性」と「寄り道」が削ぎ落とされていく危うさもあります。いわゆるブルーオーシャン戦略が示すように、新しい価値は効率化の先にではなく、むしろ“非効率”の中に芽生えるものです。市場が完全に整いすぎれば、そこに残るのは最適化された競争であり、創造的逸脱を許さない閉じた均衡です。AIがもたらす合理性の裏側で、人間の「揺らぎ」が経済の最後の資本になっていく。ここでもまた、人間の不可解さをどう保存し、どう経営資源として再定義するかが問われています。
Gartnerから出版されている『When Machines Become Customers』では、興味深い比喩でこの変化を描いています。
「富裕層は自ら買い物をしない。執事や家政婦、個人アシスタントに委ねるのだ。ビジネス史を通じて、富裕層だけが享受してきた代行の仕組みを大衆に開放することで、新しい富が築かれてきた。紅茶からファストフード、格安航空まで、そうやって市場は拡張されてきた。次に自動化されるのは“買い物”そのものである。」
つまり、AIは“次なる執事”として、人類の生活に常駐する存在へと変わっていきます。この流れを経営視点で見れば、オペレーショナル・エクセレンスの延長線上でありながら、同時にカスタマー・エクスペリエンスの再定義でもあります。機械が購買を合理化する一方で、人間の購買は「感情」「偶然」「関係性」へと回帰していく。効率化が極まるほど、非合理こそが差別化の源泉となるのです。
AIが生み出す新しい市場は、私たちにこう問いかけています。――人間とは、最適化の外にある“余白”をどれだけ残せる存在なのか。

Gartner『When Machines Become Customers』
Cloudflare と Anthropic と Amazon:開かれたインターネットの分岐点を読む
AIが「共消費者」として市場を最適化しはじめたいま、次に問われているのは 「知」と「主権」をどう扱うか です。合理性によって整えられた市場の先に現れたのは、インターネットという巨大な知のインフラをめぐる新たな分岐点でした。Cloudflare、Anthropic、Amazon——この三社の動きは、AI時代におけるデジタル・ガバナンスの転換点を象徴しています。
Cloudflareの「Pay per Crawl」は、まさにガバナンス・バイ・デザインの実例です。これまでAIによるWebスクレイピングは“野放図な自由”か“全面的な拒否”かという二項対立に陥っていました。しかし、Cloudflareはその中間を設計した。誰が、何の目的で、どの範囲を学習に使うのか——そのアクセスを価格と合意のプロトコルによって制御する仕組みを導入しました。
それは防御ではなく、開かれた知を持続可能にするためのマネタイズ設計です。このアプローチは、トランザクション・コスト理論を現代のデジタル空間に適用したものとも言えます。つまり、知識という公共財を「無償で浪費される資源」ではなく、「正当に交換される資産」として位置づけ直す試みなのです。

Anthropicが著者たちと約15億ドルで和解した事件は、AI産業における「知の資本化」を決定的に可視化しました。1冊あたり3,000ドルという数字は、単なる損害賠償ではありません。それは「創作物がAIに学ばれる権利の価格」であり、データガバナンスの実コスト構造が初めて明らかになった瞬間でした。
この和解は二つの方向性を示唆しています。一つは、AI開発のコスト構造が固定費化し、資本力のあるプレイヤーしか継続的なモデル改良に耐えられなくなるという資本集約型市場へのシフト。もう一つは、オープンな研究環境が縮小し、知の共有というインターネット本来の理念が徐々に損なわれていくというリスクです。
AIの進化が資金調達力に依存する構造は、やがて知の格差を拡大させるでしょう。ここでも問われるのは、「AIに学ばせる自由」と「人間が知を開く自由」のバランスです。

AmazonがPerplexityのAIブラウザを問題視した一件は、AI時代の顧客主権をめぐる象徴的な事件です。AIエージェントがユーザーの代理として購買判断を下すとき、その“意志”は誰のものなのか。プラットフォームの設計者なのか、AIモデルの提供者なのか、それとも利用者本人なのか。
Amazonはプラットフォームの秩序と安全性を守るために、AI代理購買を制限しました。これは一見、合理的な防御策ですが、その背後には中間者排除への恐れがあります。AIが購買プロセスから中間者を消していくとき、既存の経済圏は大きく揺らぐ。Amazonはそれに先手を打った形です。
対するPerplexityは「ユーザーの自由な選択権」を主張しました。この構図こそ、プラットフォーム主権と個人主権の衝突です。AIが介在することで、人間とプラットフォームの間に新たな“主権の曖昧地帯”が生まれつつあります。

■三者の共通点:閉じるか、条件を設計して開くか
Cloudflareは「知へのアクセスの設計」を進め、Anthropicは「学習の代償を数値化」し、Amazonは「主権の境界線」を明示しました。この三者に共通しているのは、“閉じる”ではなく、“開くためにルールを作る”という発想です。
これは単なるビジネスモデルの話ではなく、インターネットのガバナンスモデルの再構築です。オープンとクローズの二元論ではなく、信頼・透明性・対価という経済的・倫理的パラメータをコードとして埋め込み、ネットワーク全体を条件つきの自由(Conditional Openness)として再設計する。
つまり、AI時代における「開かれたインターネット」とは、もはや無秩序な共有ではなく、ガバナンスと自由の同時設計なのです。そしてこの構図を理解した企業だけが、次の時代のリーダーシップ——Trust-Based Strategy(信頼に基づく戦略)を築いていくことになるでしょう。
「学習に課金」が常態化した世界で何が鈍るのか
「学習に課金」が常態化した世界では、AIの進化が「合理性の罠」に囚われ始めます。
コスト構造の硬直化は、R&Dサイクルの遅延と新規参入障壁の上昇を招きます。結果として、イノベーションよりもリスク回避を優先するコンプライアンス経営が支配的になり、AIモデルは“正確ではあるが退屈な存在”へと変わっていく。いわば、技術的成熟が創造的衰退を呼び込むパラドックスです。
Gartnerが示す「機械顧客時代(Machine Customer Economy)」が進行する一方で、挑戦者の撤退やスタートアップの頓挫が相次ぐようになれば、競争的進化圧は失われ、産業全体のダイナミズムは確実に鈍化します。これは、イノベーション理論で言うところのクリステンセンが言うところのイノベーションのジレンマが、早くもAI業界そのものの中で起こりつつあるということです。
真の問題は、速度ではなく“視野”の劣化です。もしAIが限られた企業のクローズドデータだけを糧に学び続けるなら、その知はやがて自己言及的な世界認識に陥ります。多様な文化や周縁的な知を含む「長い尾(Long Tail)」を切り捨てた瞬間、AIは人間社会の複雑さと矛盾を学ぶ機会を失い、結果として、現実を単純化しすぎた“効率的な誤解”を量産するようになるでしょう。
オープンウェブが長年育ててきたのは、単なる情報量ではなく、異なる視点が共存するエコシステムでした。そこには、主流から外れた意見、批判的な思考、少数派の声といった、人間社会の「ざらつき」が存在していた。そのざらつきこそが、AIが倫理や多様性を学ぶための養分だったのです。
もしこの多様性が失われれば、AIは社会の鏡ではなく、特定の企業の視界に閉じ込められた“歪んだ反射”になります。それは、知のオリゴポリーとも呼ぶべき状態です。学習コストの高騰は技術を独占化し、独占はやがて知の偏りを生む——その結果、AIの世界理解は深くなるどころか、むしろ浅く、狭く、均質になっていきます。
合理性が極まると、世界は静かに退屈になる。「学習に課金」する社会とは、AIが世界を再発見する自由を失い、人間が世界を語り直す機会を失う社会でもあるのです。
「開かれたインターネット」は誰のために開かれているか
この答えは、「誰のためでもなく、すべての人のために」です。インターネットは国家のための戦略資産でもなければ、企業のためのマーケットでもない。ましてやAIのための学習装置でもありません。その本質は、知の共有と相互接続という、二つの普遍的価値の上に成り立っています。誰かが独占するものではなく、誰もが関わることで成り立つ「公共財(Public Good)」なのです。
ところが今、日本では「ソブリンAI(主権AI)」という言葉が誤って解釈されつつあります。データを守ること自体は重要です。しかし、多くの企業が「主権」の名のもとにネットワークを閉じ、国外との接続を断ちながらAIを開発している現状は、結果的に自らを情報鎖国へと追い込むリスクを孕んでいます。世界のAI研究が日々、グローバルな相互学習によって進化している中で、閉鎖的な環境にとどまることは、技術的ROIを著しく下げる行為です。
AIは、多様な文化・価値観・言語に触れることによって、人間社会の複雑性を理解し、より高次の創造性を発揮するようになります。つまり、AIの知能は「閉鎖によって守られる」のではなく、「接続によって磨かれる」のです。真のソブリンAIとは、独立した主権を保ちながらも、信頼の枠組みの中で世界と連携することによってこそ実現されます。主権とは排他の象徴ではなく、信頼をデザインする能力であるべきです。
もちろん、無秩序な開放はリスクを生みます。ですが、完全な遮断はそれ以上に危険です。進化を止め、社会の知的エコシステムを硬直化させるからです。求められているのは、信頼を前提とした自由です。誰が、どのような目的で、どの範囲の知を扱うのか。アクセスの根拠を明確にし、リスクを可視化したうえで、透明なルールと合意のもとに知を流通させる。これを実現する技術設計思想こそが、ゼロトラスト(Zero Trust Architecture)です。
ゼロトラストとは「誰も信じない」という発想ではなく、「すべてを一度検証して正しく信頼する」ための枠組みです。目的に応じて権限・対価・監査を設定し、許可・課金・拒否を透明に管理する。Cloudflareの「Pay per Crawl」はその代表例であり、知識を封じるのではなく、「条件を設計することで再び開く」試みといえます。閉じることではなく、秩序立った開放によってこそ、インターネットの自由は持続可能になるのです。
インターネットは、誰かの私有物ではなく、人類の呼吸のような存在です。AIが学ぶ自由も、企業が革新する権利も、その根にあるのは「人間が考える自由」にほかなりません。私たちはインターネットを所有するのではなく、共に保全し、倫理的に使いこなす責任を持つべきなのです。
本来のソブリンAIとは、閉じた主権を守ることではなく、開かれた信頼を築く力にあります。それは特定の国や企業のためではなく、人類全体のための知の共存基盤として、未来へ受け継がれていくべきものです。

さいごに:人間の聖域を中心に、開くために守る
小説『本心』に描かれる2040年代の日本は、まるで現実がバーチャルにすり替わったかのような世界でした。デジタルツインが「本物」と呼ばれ、人の想いがデータとして模倣される社会。そこでは、あまりにも滑らかで、空虚なほど自然な対話が交わされます。AI開発者は静かに言います。
「非常に自然に受け答えをしてくれます。——ただ、“心”はありません。」
“心”は、人の中にしかありません。主人公が守ろうとしたもの、そして失ったもの——それは、想いが届かないからこそ純粋で、痛いほど美しい、人間の情動そのものでした。AIの向こう側に愛を見出そうとするその姿は、信仰に似た切実さと、人間という存在の限りない矛盾を映し出しています。
AIは、言葉を組み合わせ、文脈を学び、驚くほど自然に会話を再現できます。けれど、それは「理解」ではなく「再構成」であり、「感情」ではなく「応答」です。そこにあるのは心の模倣であって、他者の痛みを引き受ける“応答責任”ではないのです。
レヴィナスは、この「応答責任」を「他者の顔」という言葉で表現しました。彼にとって、他者とは決して完全には理解できない存在です。理解しようとすればするほど、その奥に「私には届かない領域」がある。しかし、その理解不能性こそが、倫理の出発点になる——彼はそう考えました。
つまり、人間の関係は「わかりあう」ことで成り立つのではなく、「わかりあえない」ことを前提にして成り立つのです。この逆説こそが、AIには再現できない、人間の根源的な構造です。“心”があるとは、他者の痛みを想像し、自分には理解できないものに向き合い続けること。それは論理でも演算でもなく、生きることそのものです。
AIが滑らかに世界を模倣しても、そこに「他者の顔」はありません。だからこそ、私たちはその“空白”を見つめる必要があります。理解できないからこそ、尊重が生まれる。届かないからこそ、想いが続く。この不完全さこそ、人間の倫理の原型であり、AI時代に失ってはならない「聖域」です。
たしかにAIは世界を変えます。Cloudflareは知の流通をルール化し、Amazonは購買主権の所在を問い、Anthropicの和解は権利の重みを数値で可視化しました。しかし、それでも——AIは人間のすべてを変えることはできません。
私たちが選ぶべき道は、閉じることでも、無秩序に開くことでもない。条件をコード化し、信頼を設計し、開くために守るという姿勢です。その中心にあるのは、AIでもアルゴリズムでもなく、人間の不可解さです。理解できないからこそ生まれる倫理、届かないからこそ続く想い。この“不完全な人間性”を中心に据えることこそ、未来のテクノロジーを人の自由のために使う道筋です。
レヴィナスが語った「他者の顔」を忘れずに、私たちは技術を人の自由のために使うべきです。そしてその自由とは、他者を排除せず、世界をともに生きるための勇気でもあります。
「クラウドであたらしい働き方を」掲げるネクストモードとして、私たちはAIの時代にあっても変わらぬ人間の温度を大切にし、変化を恐れず進化していく柔軟さを持ち続けたい。その両方を見極めながら、人間の不可解さを中心に据えた“開かれた未来”を歩んでいきたいと思います。