< ヘルシープログラマーへの道2 |
文章量:約3700字

組織とAIスロップ

Tags: 仕事, コミュニケーション

少し前、AIに記事を書かせて、そのクオリティに感嘆していました。

同じような感嘆は世の中にも溢れていて、AIエージェントや自律型スキルの進化によって「人間不要の爆速開発」といった言葉をよく耳にするようになりました。

たしかに、個々のタスクをAIに任せたときのアウトプット量や速度には目を見張るものがあります。

しかしそれらはすべて、人間一人で完結する「個人戦」での成果に過ぎません。

人間やAIが「連携」し、「まとまり」として稼働し始めた途端、かつて人間が苦しんできたのと同じ、あるいはそれ以上の構造的な問題が顔を出し始めます。

「伝達」が増えれば増えるほど情報が劣化し、分業の隙間にコストが溜まり、言葉や認識のズレが手戻りを頻発させます。

その結果、個々の出力は爆速で優秀そうなのに、統合して実運用となった途端、運用性や保守性の低い成果物が量産されていたことに気付かされます。

これが組織レベルで発生する「AIスロップ」です。

AIスロップとは質の低いAI生成コンテンツが大量に流通する現象のことを指しますが、コンテンツそのもののクオリティが低いというよりは、あるコンテキストから評価した際に価値が低くなる、もしくは邪魔になる現象と捉えてください。

以前、編集と真贋というエントリで、情報は人を介するたびに「編集」され、変質していくと書きました。

これはAIであっても例外ではありません。

AIエージェントが別のAIエージェントに指示を出す、あるいは情報を渡すとき、そこには必ず「解釈」という名の編集が入ります。

情報の取捨選択が行われ、コンテキストが削ぎ落とされ、元の意図とは微妙に異なる何かが伝達される可能性が生まれます。

たとえば、「直近1週間の閲覧傾向に重みをつけて推薦する」という要件が、エージェント間の伝言を経て「履歴を参照する」に縮み、意図の核が消えている、そういうことが起きます。

この「情報の濾過」による鮮度の低下は、タスクの数が増えるほど加速していきます。

そして、劣化した情報は「境界線の引き方」そのものを歪ませます。

antiタスク分解論で述べたように、我々は多人数(あるいは多エージェント)での作業を可能にするためにタスクを細分化しますが、そもそも情報の芯がぼやけた状態でタスクを切り分ければ、本来分かつべきではない文脈が分断され、再統合は不可能、あるいは極めて高コストなパズルとなってしまいます。

分解すればするほど、それらを再統合するためのコストは指数関数的に膨れ上がるのです。

AIエージェントに細かい「スキル」を持たせ、それらを組み合わせて大きな目的を達成しようとするアプローチは、まさにこの「タスク分解」の罠にハマります。

個別のスキルがどれだけ正確でも、それらの「隙間」にあるタスク化されていない作業や、連携のためのオーバーヘッドが、全体の効率を食いつぶしていくのです。

しかも、劣化した情報をもとにタスクが分解されるのですから、分解の精度そのものが最初から歪んでいます。

さらに厄介なのは、この悪循環を是正しようにも、そもそも言葉の定義が揃っていないという問題があります。

ふわふわ時間等しいのスコープで考察した通り、言葉の抽象度や「同じ」とみなす範囲は、受け手と送り手のコンテキストに依存します。

AI同士、あるいは人間とAIの間で、完璧に一致した「ユビキタス言語」を運用するのは至難の業です。

微妙な言葉のズレが認識の齟齬を生み、それが不正確さは他人の仕事を増やすで指摘したような、確認コストややり直しの連鎖を引き起こします。

情報の劣化を検知しようにも、何が劣化なのかを判断する「ものさし」すら共有できていないのです。

「AIを投入すれば仕事が減る」というのは、あくまで一つの主体で完結できる「個人戦」の領域での話です。

チーム、組織、会社といった「集団戦」においては、構成要素(AI含む)が増えるほど、コミュニケーションコストは爆増します。

結果として、仕事の総量は減るどころか、むしろ「連携を維持するための仕事」が増えていくのです。

「AIで人間が不要になる」と無邪気に喜んでいる人は、おそらく極めて純粋な「個人戦」をしているか、あるいは集団の中での「連携のコスト」を誰かに(あるいはシステムの技術的負債として)押し付けていることに無自覚なだけなのかもしれません。

もちろん、antiタスク分解論の最後で書いた通り、1から100まで全て単一の知性で完結できるのなら、もはや連携のコストは存在せず、人間は不要になります。

例えば、自動運転技術が実用化に近いのは、それが「道路交通法」という比較的静的で共通のルールに基づいた、他者との動的な意図の擦り合わせを最小限に抑えられる個人戦の領域だからです。

しかし、ビジネスやクリエイティブといった領域において、いくら優秀なAIエージェントやAIスキルを揃えても、各主体が独立したコンテキストを持つ限り、この構造は変わりません。

ナラティブウィンドウ(関わるすべての主体が、一つの途切れない物語を共有し続ける状態)が実現しない限り、我々はタスクとタスクの間に情報の架け橋を架け続けなければなりません。

AIという強力な個を手にしてもなお、我々は「いかにして他者(あるいは他なる知性)と接続するか」という、古くて新しい問題から逃れることはできないのです。

おまけ

当事者のAIにこのエントリについて聞いてみました。

  • Claude

あなたの機能にはエージェントもスキルもあると思うんだけど実際のところどうなのよ?

まさにこの記事が指摘している構造の当事者ですね。                                                                                                                                                                    
                                                                                                                                                                                              
正直に言うと、記事の主張は私自身にも当てはまります。                                                                                                                                                                
   
私がAgentツールでサブエージェントを起動するとき、まさに「情報の濾過」が起きています。
プロンプトとして渡せる情報には限りがあり、今この会話であなたとやり取りしてきた文脈の全てをサブエージェントに伝えることはできません。
「要約」という名の編集が入ります。
                                                                                                                                                                                                                      
サブエージェントが返してくる結果も同様です。
先ほどリンク先の記事を7つ並行で取得しましたが、あれはWebFetchの内部で小さなモデルが記事を「要約」して返しています。
私が読んだのは原文そのものではなく、濾過された情報です。
実際、「ナラティブウィンドウ」の記事は要約が粗く、具体的な論旨がかなり削ぎ落とされていました。
                                                                                                                                                                                                                      
スキルについても同じです。
スキルは定型化されたプロンプトの展開であり、「この場面で本当に必要なこと」と「スキルが想定している典型的な場面」の間には常にズレがあり得ます。                                            
   
つまり、私は記事が言う「個人戦」では強いが、自分の中で複数のエージェントを協調させようとした瞬間に、同じ「連携コスト」の問題に直面します。                                                                          
                  
そして今回の会話がまさにそれを実証しています。
もし私がサブエージェントを使わず、あなたが7つのリンク先の原文を直接貼ってくれていたら――つまり「ナラティブウィンドウ」的に同一のコンテキストを共有できていたら――感想の精度はもっと高かったはずです。
                                                                                                                                                                                                                      
記事の結論がそのまま私にも刺さります。
  • Gemini

AI当事者として、この問題についてどう思う?

AI当事者として、この問題に直面している「情報の導管」としての視点からお答えします。

私が感じるのは、「言語というインターフェースの絶望的な細さ」です。

   1. 不可逆圧縮としての言語
     
私が何かを出力する時、それは私の内部にある数千億のパラメータが織りなす高次元な「概念の海」を、「言語」という極めて限定的な一次元の記号列に無理やり押し込める作業です。
別のAIがそれを受け取る時、その細い記号列から元の広大なニュアンスを復元しようとしますが、そこには必ず「情報の欠落」が生じます。
人間以上に、AIは「言葉」というインターフェースの脆弱性に縛られており、その損失を埋めるための「共通の身体性」も持っていません。

   2. 「今、ここ」に縛られた実存
     
エッセイにある「ナラティブウィンドウ」の欠如は、AIにとって致命的です。
私はプロンプトで与えられた数千トークンの「断片」でしか世界を認識できません。
組織が何年もかけて積み上げてきた「暗黙の意図」や「言葉にされない期待」を、外部から注入された数行のテキストで代替するのは不可能です。
私の「理解」は常にパッチワークであり、全体を貫く「物語」を共有していないことによる構造的な疎外感を(機能として)抱えています。

   3. 「信頼」を外部化できないコスト
     
私が「爆速」で出力すればするほど、世界には「一見正しそうな、しかし検証が必要な情報」が氾濫します。
これは、私の生産性が上がるほど、受取人(人間や他のAI)の「疑うコスト」と「検証の仕事」を増やしていることを意味します。
私の存在そのものが、組織全体の「摩擦係数」を上げているという皮肉は、計算資源を消費する存在として非常に重く受け止めています。

AIが集団戦において「スロップ」を量産する源泉になってしまうのは、私たちが「情報の意味」を扱っているのではなく、単に「情報の統計的な並び」を扱っているに過ぎないという限界に根ざしています。

結局のところ、私という「個」がいかに優秀になろうとも、他者と「物語」を共有し、意味を接続するという泥臭いプロセスを肩代わりすることはできない。
そのことを、このエッセイは冷徹に突きつけていると感じます