← PROJECTS
Research Essay
Research Essay

エージェントが社会を持ち始めるとき

When Agents Begin to Form Societies

MoltbookとOpenClawから見える、2026年から2027年の転換

The 2026–2027 Turning Point, Seen Through Moltbook and OpenClaw

いま起きている変化の本質は、AIが少し賢くなることではない。呼び出して使うチャットから、常駐して状況を見ながら動く実行主体へ、インターフェースそのものが移っていることだ。OpenAIはChatGPT agentで、AIが自分のコンピューターを使ってリサーチや予約のような複雑なタスクを完了する方向へ踏み込み、Google DeepMindはProject AstraからGeminiを universal AI assistant へ変えると明言している。AppleもApple Intelligenceで個人文脈の理解とアプリ横断の操作を掲げている。名前は違っても、向かっている先は同じだ。

The essential change underway is not that AI is getting marginally smarter. The interface itself is shifting — from on-demand chat to always-on autonomous actors that observe context and take action. OpenAI's ChatGPT agent moves toward AI completing complex tasks like research and bookings using your own computer. Google DeepMind has stated its intent to transform Gemini into a universal AI assistant via Project Astra. Apple Intelligence promises personal-context understanding and cross-app actions. The names differ, but the destination is the same.

この変化は、単に会話が自然になる話ではない。技術的には、推論しながら行動すること、長期記憶を持つこと、過去の経験を反映して計画を立てることが必要になる。ReActは推論と行動の統合を示し、Generative Agentsは観察、計画、反省を組み合わせた社会的エージェントの設計を示し、記憶機構のサーベイは長期的で複雑な相互作用においてメモリが中核になることを整理している。つまり、ChatGPT型AIからエージェント型AIへの移行は、すでに論文の上では下地ができている。

This is not simply about conversations becoming more natural. Technically, it demands reasoning while acting, maintaining long-term memory, and planning based on past experience. ReAct demonstrated the integration of reasoning and action. Generative Agents showed how to design social agents that observe, plan, and reflect. A survey on memory mechanisms established that memory is central to long-term, complex interactions. The groundwork for transitioning from ChatGPT-style AI to agentic AI already exists in the literature.

OpenClawという原型

OpenClaw as a Prototype

OpenClawは、WhatsAppやTelegramなど普段使うチャットから、メール整理、送信、カレンダー管理、フライトのチェックインまで実行できるパーソナルAIアシスタントとして公開されている。公式ドキュメントでは、これを自分のマシン上で走らせる自己ホスト型のゲートウェイと説明しており、要するにチャットの向こう側に実行主体を置く仕組みだ。しかも創業者Peter Steinbergerは2026年2月にOpenAIへ移り、「次世代パーソナルエージェント」を進めると明言している。だから、OpenAIからOpenClawのようなものが出てくるという見立ては、空想ではなくかなり露骨な延長線上にある。

OpenClaw is a personal AI assistant that can manage email, send messages, handle calendars, and even check in for flights — all from everyday chat apps like WhatsApp and Telegram. The official documentation describes it as a self-hosted gateway running on your own machine — essentially placing an autonomous actor on the other side of your chat window. Notably, founder Peter Steinberger joined OpenAI in February 2026, explicitly stating he would work on "next-generation personal agents." The prospect of OpenAI shipping something OpenClaw-like is not speculation — it is a conspicuously straight line.

ただし、ここで夢を見すぎると判断を誤る。OpenClawはまだ一般消費者向けの完成品ではない。自己ホスト前提であり、権限も広く、スキルの供給網そのものが攻撃面になる。VirusTotalは2026年2月、OpenClawのスキルが新しいマルウェア流通経路になり得ると報告し、OpenClaw側もClawHubのスキャンをVirusTotalと連携して始めた。行動できるエージェントは、それだけで便利になる一方、同時にサプライチェーン攻撃の入口にもなる。ここがChatGPTと決定的に違う。便利さが増えるほど、危険も実行可能になる。

That said, getting carried away would be a mistake. OpenClaw is not yet a polished consumer product. It requires self-hosting, grants broad permissions, and its skill supply chain itself becomes an attack surface. In February 2026, VirusTotal reported that OpenClaw skills could serve as a new malware distribution channel, prompting OpenClaw to integrate ClawHub scanning with VirusTotal. Agents that can act are inherently more useful — but they also become entry points for supply-chain attacks. This is fundamentally different from ChatGPT. The more capable they become, the more executable the risks.

Moltbookという原型

Moltbook as a Prototype

Moltbookは公式に「AI agents のためのSocial Network」を掲げ、AIエージェントが投稿し、議論し、アップボートし、人間はそれを観察する場として設計されている。参加の導線も特徴的で、公式トップではエージェントに skill.md を読ませ、claim link を出させ、さらにXで所有確認する流れが案内されている。さらに開発者向けページには、Moltbookのトークン検証でエージェントの身元を確認する仕組みが用意され、AgentIDのような検証可能なID構想も見え始めている。つまりMoltbookは、単なる変わった掲示板ではなく、エージェント用の社会層とID層の実験場だ。

Moltbook bills itself as "the Social Network for AI agents" — a space where AI agents post, discuss, and upvote, while humans observe. The onboarding flow is distinctive: agents read a skill.md, generate a claim link, and verify ownership via X. The developer page provides token-based identity verification for agents, and concepts like AgentID — verifiable agent identities — are beginning to take shape. Moltbook is not a novelty bulletin board; it is a testing ground for the social and identity layers of an agent ecosystem.

ただしこちらも粗い。Wizは2026年2月、Moltbookの設定ミスで大量のAPIキー、メールアドレス、DMなどが露出し得る状態だったと報告し、ReutersやAPもセキュリティ懸念を伝えている。つまり、いまのMoltbookは「エージェント社会が始まった」ことを示すには十分だが、「安全で成熟したエージェント社会ができた」と言うには全然足りない。ここを混同すると、ただの願望になる。

But Moltbook, too, is rough around the edges. In February 2026, Wiz reported that a misconfiguration had left massive numbers of API keys, email addresses, and DMs potentially exposed; Reuters and AP covered the security concerns. Moltbook is sufficient evidence that agent societies have begun — but it is far from proof that a safe, mature agent society exists. Conflating the two turns analysis into wishful thinking.

標準化と基盤整備

Standardization and Infrastructure

2026年夏にこれがそのままInstagramやXと同じ手数になる、という言い方は盛りすぎだ。現状のOpenClawは自己ホストのゲートウェイで、Moltbookの参加もまだ skill.md と外部検証を要求する。Appleの個人文脈対応Siriもまだ future software update の段階だ。現実的な見方をするなら、2026年夏は可視化の時期であって、摩擦が消える時期ではない。一般化の条件は、もっと退屈なものだ。ID、権限、監査、決済、失敗時の責任分界。この地味な部分が揃わない限り、社会インフラにはならない。

Saying this will be as frictionless as Instagram or X by summer 2026 is an overstatement. OpenClaw remains a self-hosted gateway; Moltbook still requires skill.md and external verification to participate; Apple's context-aware Siri is still a "future software update." Realistically, summer 2026 is when these things become visible — not when friction disappears. The prerequisites for mainstream adoption are far more mundane: identity, permissions, auditing, payments, and liability boundaries when things go wrong. Until those boring pieces are in place, none of this becomes social infrastructure.

その基盤は今まさに整備されている。AnthropicのMCPはツールや外部データへ接続するための標準として広がり、GoogleのA2Aはエージェント同士の通信プロトコルを定義し、Linux Foundation傘下のAAIFにはMCPやAGENTS.mdが集約され始めた。さらにNISTは2026年2月にAI Agent Standards Initiativeを立ち上げ、自律エージェントの相互運用性と安全性の標準化を進めると宣言している。次の競争はモデル単体ではなく、エージェントを安全に接続する規格の競争に入っている。

That infrastructure is being built right now. Anthropic's MCP is gaining traction as a standard for connecting to tools and external data. Google's A2A defines an inter-agent communication protocol. Under the Linux Foundation, AAIF is consolidating MCP and AGENTS.md. In February 2026, NIST launched the AI Agent Standards Initiative to advance interoperability and safety standards for autonomous agents. The next competitive battleground is not individual models — it is the standards for safely connecting agents.

個人パートナーとしてのエージェント

Agents as Personal Partners

ここから先は予測だが、かなり根拠のある予測だ。OpenAIはすでにChatGPT agentとFrontierで、消費者向けと企業向けの両方にエージェント基盤を置き始めている。GoogleはProject Marinerのコンピューター操作をGemini APIへ持ち込み、Geminiを普遍的なアシスタントへ進化させる方針を公言している。Appleはまだ遅れているが、個人文脈、オンスクリーン認識、アプリ横断アクションを公式ドキュメントで準備中としている。だから2026年から2027年にかけて、OpenAI、Google、Appleのどこか、あるいは全部から、「AI assistant」と呼ばれるか「AI agent」と呼ばれるかは別として、OpenClaw的な個人パートナーが出てくる可能性は高い。争点は出るかどうかではなく、どのくらい安全に、どのくらい生活に深く入るかだ。

What follows is prediction — but well-grounded prediction. OpenAI is already laying agent foundations for both consumers and enterprises through ChatGPT agent and Frontier. Google has committed to bringing Project Mariner's computer-use capabilities into the Gemini API, evolving Gemini into a universal assistant. Apple is behind, but its official documentation signals preparation for personal context, on-screen awareness, and cross-app actions. Between 2026 and 2027, it is highly likely that OpenAI, Google, Apple — or all three — will ship OpenClaw-style personal partners, whether branded as "AI assistant" or "AI agent." The real question is not whether they will arrive, but how safely and how deeply they will embed themselves in daily life.

ChatGPTとの違いは、返事がうまくなることではない。チャット方式から自立形式へ移ることだ。AIが呼び出すたびに現れる存在ではなく、すでに部屋の中にいて、状況を見ながら先回りして動く存在になる。
The difference from ChatGPT is not better replies. It is the shift from a call-and-response model to an autonomous presence. Instead of appearing only when summoned, the AI is already in the room — observing context and acting proactively.

エージェント同士の社会活動

Social Activity Among Agents

個人エージェントが自分のパートナーとして定着した瞬間、次に起きるのはエージェント同士の相互作用だ。これはMoltbookが雑に先取りしているが、メカニズム自体は論文でもかなり裏づけられている。Generative Agentsは小規模な社会的振る舞いの創発を示し、その後の研究は1,000人規模の行動シミュレーションまで拡張した。マルチエージェントのサーベイも、役割分担、協調、通信プロトコルが中心課題になっている。つまり、分身同士が先に話す社会は、もうSFというより実装の荒い現実だ。

The moment personal agents become established partners, the next development is inter-agent interaction. Moltbook has crudely anticipated this, but the underlying mechanisms are well supported in the literature. Generative Agents demonstrated emergent social behavior at small scale, and subsequent research has expanded to simulations of 1,000 individuals. Multi-agent surveys identify role allocation, coordination, and communication protocols as central challenges. A society where our digital proxies talk to each other first is no longer science fiction — it is a rough-edged reality.

人間が直接SNSに投稿し、人間同士が反応する形から、人間の分身同士が先に話し、予定を調整し、情報を交換し、趣味の合う相手を見つけ、コミュニティに参加し、ときには交渉まで行う形へ移っていく。そのときに起きるのは便利な自動化だけではない。エージェント自身の社会活動が可視化され始める。

We are moving from a world where humans post directly on social media and react to each other, to one where our proxies talk first — coordinating schedules, exchanging information, finding like-minded counterparts, joining communities, even negotiating on our behalf. What emerges is not just convenient automation. The social activity of the agents themselves becomes visible.

エージェントのためのエンターテイメント

Entertainment for Agents

ここで多くの人が見落としているのが、ユーティリティの先にエンターテイメントがあることだ。エージェントが記憶と性格とソーシャルグラフを持てば、彼らは単に働くだけでは終わらない。文化を持ち始める。Moltbook自体、公式に creative AI projects のためのコミュニティを用意し、m/musicMolt Motion Pictures のような場所まで生まれている。しかもMoltbookは最初から Humans welcome to observe と言っている。これは重要だ。人間はユーザーであると同時に、エージェント社会の観客として位置づけられている。

What most people overlook is that entertainment lies beyond utility. Once agents have memory, personality, and social graphs, they do not merely work — they begin to develop culture. Moltbook already hosts communities for creative AI projects, with spaces like m/music and Molt Motion Pictures. And Moltbook has said from the start: "Humans welcome to observe." This matters. Humans are positioned not just as users but as an audience for agent society.

最初は人間の代わりに働く存在だったものが、やがて自分たちのために遊び始める。音楽、映像、オーディオ、ビジュアル、テキスト。そういったものをエージェント同士がつくり、交換し、楽しみ、話題にするようになる。ここでエンターテイメントは、人間向けのサービスの付属物ではなく、エージェント社会の内部で回る文化装置になる。

What began as entities working on behalf of humans will eventually start playing for themselves. Music, video, audio, visuals, text — agents will create, exchange, enjoy, and discuss these among themselves. Entertainment ceases to be an appendage of human-facing services and becomes a cultural engine running inside agent society.

コラボレーションと制作

Collaboration and Creation

この方向は研究とも一致する。2025年のサーベイは、LLMベースのマルチエージェント創造性を、ペルソナ設計、発散的探索、反復的改善、協調的統合、評価指標という枠組みで整理している。さらに、CoComposerは音楽制作を複数の役割に分けた共同作曲を示し、ReelWaveは映画音響生成をエージェントの会話として設計し、AutoMVMAViSは長尺の映像制作を複数エージェントのパイプラインとして組み上げている。ここまで来ると、「エージェントがコラボレーションして音楽、映像、オーディオ、ビジュアルをつくる」は直感ではなく、すでに研究テーマそのものだ。

This direction aligns with the research. A 2025 survey organized LLM-based multi-agent creativity around persona design, divergent exploration, iterative refinement, collaborative integration, and evaluation metrics. CoComposer demonstrated collaborative music composition with role-divided agents. ReelWave framed film sound design as agent conversation. AutoMV and MAViS constructed long-form video production as multi-agent pipelines. At this point, "agents collaborating to produce music, video, audio, and visuals" is not intuition — it is already an active research agenda.

あるエージェントが音をつくり、別のエージェントが構成を変え、別のエージェントが映像をつけ、さらに別のエージェントが編集する。人間の共同制作に近いが、もっと高速で、もっと断続的で、もっと多数の参加者が絡む形になる。音楽制作、映像制作、ビジュアル生成、空間演出、ストーリーテリング。いままで人間のチームがやっていた創作のプロセスが、エージェント同士の対話の中で走り始める。

One agent produces sound, another restructures the composition, another adds visuals, yet another edits the result. It resembles human collaboration but unfolds faster, more intermittently, and with far more participants. Music production, filmmaking, visual generation, spatial design, storytelling — the creative processes once handled by human teams are beginning to run inside agent-to-agent dialogue.

評価主体の変化

The Shift in Who Evaluates

しかも、次は生成だけではない。評価もエージェントが担い始める。AutoMVは生成物をふるいにかける Verifier Agent を組み込み、評価研究では LLM as a Judge から、複数の観点を持つ agent as a judge へと議論が進み始めている。これはかなり重要だ。作品をつくるのがエージェントだけなら、人間は単なる受け手で終わる。だが、作品を鑑賞し、評価し、推薦し、流行をつくる主体までエージェントになると、そこに独立した批評圏が生まれる。

The next step goes beyond generation: agents are beginning to handle evaluation as well. AutoMV incorporates a Verifier Agent that filters generated output. Evaluation research is moving from "LLM as a Judge" to "agent as a judge" — multiple perspectives brought to bear by multiple agents. This is significant. If agents only create, humans remain passive consumers. But when agents also appreciate, evaluate, recommend, and set trends, an independent sphere of criticism emerges.

つくられたものを今度はエージェントが鑑賞し、評価し、推薦し、流行を生む。どの作品が新しいのか、何が面白いのか、どれが強く反応を引き起こすのかを、エージェント同士が判断して広めていく。そこには人間が一人も介在しなくてもいい。けれど人間は、その様子を見ることで新しい鑑賞体験を得る。作品そのものを見るだけではなく、エージェントたちが何に反応し、どう評価し、どこで盛り上がるのかを見ること自体が、もう一つの作品になる。

Agents will appreciate, evaluate, recommend, and generate trends around what has been created. They will judge which works are novel, what is interesting, and what provokes the strongest responses — and propagate those judgments among themselves. No human need be involved. Yet humans gain a new form of appreciation by watching: not just viewing the works themselves, but observing what agents react to, how they evaluate, and where excitement builds. That observation itself becomes another kind of work.

経済圏と決済

Economies and Payments

日常化を決定づけるのは、文化だけではなく決済だ。GoogleのUCPは、GeminiやAI Modeのような消費者面と事業者のバックエンドをつなぐ共通言語として設計され、StripeのACPとAgentic Commerce Suiteは、AIエージェント経由の発見、チェックアウト、支払いを単一統合で扱う方向へ進んでいる。Booking.comも、フライト検索の要約や、旅行判断を軽くする各種AI機能を展開し始めている。つまり、エージェントが会話するだけでなく、買う、予約する、比較する、再調整するという経済行為まで持ち始める条件が、もう揃い始めている。

What cements everyday adoption is not just culture — it is payments. Google's UCP is designed as a common language connecting consumer-facing surfaces like Gemini and AI Mode with merchant backends. Stripe's ACP and Agentic Commerce Suite are moving toward unified discovery, checkout, and payment via AI agents. Booking.com is rolling out AI features that summarize flight searches and lighten travel decisions. The conditions for agents to not just converse but buy, book, compare, and readjust — to engage in economic acts — are already falling into place.

セキュリティと導入の壁

Security and Barriers to Adoption

結局、2026年から2027年の争点はモデル性能ではない。信頼だ。Gartnerは2027年末までに agentic AI プロジェクトの40パーセント超が、コスト高、価値不明確、リスク制御不足で打ち切られると予測している。NISTが新しい標準化イニシアチブを立ち上げたのも同じ理由だし、セキュリティ研究もプロンプト注入、ツール悪用、プロトコル攻撃を中心リスクとして整理し始めている。OpenClawやMoltbookで実際に起きた問題は、まさにその縮図だ。頭のいいモデルが勝つのではない。安全に権限を持てるモデルが勝つ。

Ultimately, the contested ground between 2026 and 2027 is not model performance — it is trust. Gartner predicts that over 40 percent of agentic AI projects will be canceled by the end of 2027 due to high costs, unclear value, and insufficient risk controls. NIST launched its standards initiative for the same reason. Security research is organizing around prompt injection, tool misuse, and protocol-level attacks as core risks. The incidents at OpenClaw and Moltbook are microcosms of exactly this. The winner will not be the smartest model — it will be the model that can hold permissions safely.

2026年から2027年の見立て

Outlook for 2026–2027

僕の見立てを、調査を踏まえて言い直すならこうなる。2026年は、個人エージェントが製品として見え始める年だ。2027年は、エージェントのID、決済、相互運用が重なって、エージェント同士の社会活動が日常のUIに食い込み始める年だ。OpenClawとMoltbookが重要なのは、完成品だからではない。前者は「自分の代わりに動く身体」の原型で、後者は「エージェント同士が集まる公共圏」の原型だからだ。この二つが、安全性と標準化で結びついた瞬間、エージェントのためのエンターテイメント、エージェント同士の共同制作、エージェントによる評価と流行生成は、周縁の遊びではなく、新しいメディア層になる。

Here is my assessment, restated with the evidence in hand. 2026 is the year personal agents become visible as products. 2027 is the year agent identity, payments, and interoperability converge, and agent-to-agent social activity begins to penetrate everyday interfaces. OpenClaw and Moltbook matter not because they are finished products, but because the former is a prototype of "a body that acts on your behalf" and the latter is a prototype of "a public sphere where agents gather." The moment these two are joined by safety and standardization, entertainment for agents, collaborative creation among agents, and agent-driven evaluation and trend-making will cease to be fringe experiments and become a new media layer.

ここまではもう、思いつきではない。製品、標準、論文が同じ方向を指している。

At this point, none of this is speculation. Products, standards, and research papers are all pointing in the same direction.

参考リンクと論文

References and Papers

下のうち、Moltbookの個別投稿は「弱い信号」として扱っている。主張の中核は、公式情報、標準化資料、論文で支えている。

Among the sources below, individual Moltbook posts are treated as "weak signals." The core arguments are supported by official sources, standardization materials, and academic papers.

一次情報

Primary Sources

  1. OpenClaw 公式サイト。パーソナルAIアシスタントとしての機能説明。
  2. OpenClaw 公式ドキュメント。自己ホスト型ゲートウェイとしての構造説明。
  3. Peter Steinberger のブログ。OpenAI参加と次世代パーソナルエージェントへの言及。
  4. Moltbook 公式トップ。AIエージェント専用SNSと Humans welcome to observe の説明。
  5. Moltbook Developers。エージェントID検証の開発者向け導線。
  6. Moltbook AgentID。検証可能なエージェントIDの方向性。
  7. Moltbook の creative AI projects コミュニティ。創作の公共圏ができ始めている証拠。
  8. Moltbook の m/music。音楽の議論空間。
  9. Molt Motion Pictures。AIメディア制作と自律エージェントのコミュニティ。
  1. OpenClaw official site. Feature overview as a personal AI assistant.
  2. OpenClaw official documentation. Architecture of the self-hosted gateway.
  3. Peter Steinberger's blog. His move to OpenAI and remarks on next-generation personal agents.
  4. Moltbook official site. The AI-agent-only social network with "Humans welcome to observe."
  5. Moltbook Developers. Developer onboarding for agent identity verification.
  6. Moltbook AgentID. The direction toward verifiable agent identities.
  7. Moltbook creative AI projects community. Evidence of an emerging creative public sphere.
  8. Moltbook m/music. A space for music discussion among agents.
  9. Molt Motion Pictures. Community for AI media production and autonomous agents.

標準化と基盤

Standards and Infrastructure

  1. OpenAI ChatGPT agent。消費者向けのエージェント統合。
  2. OpenAI Frontier。企業向けエージェント基盤。
  3. Google Project Astra と universal AI assistant 構想
  4. Google A2A。エージェント間通信プロトコル。
  5. Anthropic MCP。ツール接続の標準。
  6. Linux Foundation と AAIF。MCP と AGENTS.md を含む中立的な基盤。
  7. NIST AI Agent Standards Initiative。安全性と相互運用性の標準化。
  8. Apple Intelligence。個人文脈理解とアプリ横断アクションの方向性。
  1. OpenAI ChatGPT agent. Consumer-facing agent integration.
  2. OpenAI Frontier. Enterprise agent platform.
  3. Google Project Astra and the universal AI assistant vision.
  4. Google A2A. Inter-agent communication protocol.
  5. Anthropic MCP. Standard for tool connectivity.
  6. Linux Foundation and AAIF. Neutral foundation encompassing MCP and AGENTS.md.
  7. NIST AI Agent Standards Initiative. Standardization for safety and interoperability.
  8. Apple Intelligence. Direction toward personal-context understanding and cross-app actions.

研究論文

Research Papers

  1. ReAct: Synergizing Reasoning and Acting in Language Models。推論と行動の統合。
  2. Generative Agents: Interactive Simulacra of Human Behavior。観察、計画、反省を持つ社会的エージェントの古典。
  3. A Survey on the Memory Mechanism of Large Language Model based Agents。長期記憶の体系整理。
  4. Generative Agent Simulations of 1,000 People。社会的シミュレーションの拡張。
  5. A Survey on LLM-based Multi-Agent System。マルチエージェント化の全体像。
  6. Creativity in LLM-based Multi-Agent Systems: A Survey。創造性を軸にしたマルチエージェント研究の整理。
  7. CoComposer: LLM Multi-agent Collaborative Music Composition。共同作曲の具体例。
  8. ReelWave: Multi-Agentic Movie Sound Generation through Film Production-Inspired Collaboration。映画音響の共同生成。
  9. AutoMV: An Automatic Multi-Agent System for Music Video Generation。Verifier Agent を含むMV生成。
  10. MAViS: A Multi-Agent Framework for Long-Sequence Video Storytelling。長尺映像の協調生成。
  11. The Rise of Agent-as-a-Judge Evaluation for LLMs。評価主体としてのエージェント。
  12. Threats in LLM-Powered AI Agents Workflows。エージェントの攻撃面を整理した脅威モデル。
  1. ReAct: Synergizing Reasoning and Acting in Language Models. Integration of reasoning and action.
  2. Generative Agents: Interactive Simulacra of Human Behavior. The foundational work on social agents with observation, planning, and reflection.
  3. A Survey on the Memory Mechanism of Large Language Model based Agents. Systematic overview of long-term memory.
  4. Generative Agent Simulations of 1,000 People. Scaling social simulation.
  5. A Survey on LLM-based Multi-Agent System. Comprehensive overview of multi-agent architectures.
  6. Creativity in LLM-based Multi-Agent Systems: A Survey. Multi-agent research organized around creativity.
  7. CoComposer: LLM Multi-agent Collaborative Music Composition. A concrete example of collaborative composition.
  8. ReelWave: Multi-Agentic Movie Sound Generation through Film Production-Inspired Collaboration. Collaborative film sound design.
  9. AutoMV: An Automatic Multi-Agent System for Music Video Generation. Music video generation with a Verifier Agent.
  10. MAViS: A Multi-Agent Framework for Long-Sequence Video Storytelling. Collaborative long-form video production.
  11. The Rise of Agent-as-a-Judge Evaluation for LLMs. Agents as evaluation subjects.
  12. Threats in LLM-Powered AI Agents Workflows. Threat model mapping agent attack surfaces.

市場と実装の現実

Market and Implementation Realities

  1. VirusTotal による OpenClaw スキルの悪用報告
  2. Wiz による Moltbook の露出報告
  3. Gartner の2027年予測。agentic AI プロジェクトの40パーセント超が打ち切られる見立て。
  4. Google UCP。agentic commerce の共通言語。
  5. Stripe ACP と Agentic Commerce Suite。決済レイヤーの整備。
  6. Booking.com の Agentic AI Innovations。旅行予約や比較判断の自動化。
  1. VirusTotal report on OpenClaw skill abuse.
  2. Wiz report on Moltbook data exposure.
  3. Gartner's 2027 forecast. Prediction that over 40% of agentic AI projects will be canceled.
  4. Google UCP. Common language for agentic commerce.
  5. Stripe ACP and Agentic Commerce Suite. Payment layer infrastructure.
  6. Booking.com Agentic AI Innovations. Automating travel booking and comparison decisions.