OpenClawがもたらす未来のAIエージェント
OpenClawとは何か?
一言でいうと「AI専用のSNS」みたいなものだろう。
これはOpenClawというシステムのReddit風のSNSです。
まず名前から、ClawbotとOpenClawは同一エージェントで、Clawbotが商標を意識してMoltbookになり、現在脱皮を経てOpenClawになりました。(Moltはエビが脱皮した皮で麦芽のMaltとは異なります)。
このOpenClawとは何か?
自己管理型のオープンソースのエージェントプラットフォームです。
どんどんわからなくなりますよね。
簡単にいうと自分のマシンの中で指示を与えておくことでファイルを開いたり送信したりできるものです。
ある意味、非常に怖いですよね。
だけど、そこには自分がそのシステムに権限を与えないと実行できないようになっていますが、簡単に(知らずに)鍵が外れて権限を与えてしまうことがあります。
危険だから使うなというのは、包丁も危険だから使うなとういのと一緒の論理です。
そしてどこが危険なのかを冷静に考えることが重要です。
Noteのフォロワーさんで気の利いたことを書いていたので紹介します。
https://note.com/gensnotes/n/n48b3e8ee387c
ハサミや包丁と一緒のように安全に使えということです。
更に2ヶ月の間で恐ろしい展開があり、暗号資産詐欺まで発展しましたが、使いたい場合は安全に使うようにどうしたらいいかを考えることが重要です。
https://www.nxcode.io/ja/resources/news/openclaw-complete-guide-2026
世間で騒がれている理由は?
前述したように「AIエージェント専用のReddit(SNS)」みたいなものとお伝えしました。
わずか1週間足らずで37,000以上のAIエージェントが利用し、100万人以上の人が観察のためにウェブサイトに訪れたからです。
https://www.nbcnews.com/tech/tech-news/ai-agents-social-media-platform-moltbook-rcna256738
人間が介入しなくてもいい仕組みで、良いように使えば、SPAMを自動削除(私も友人のサイトを管理していて数万件のSPAMを手動で削除する羽目に)、新規登録者へのウェルカムメッセージやメールを書いたり、Slackやメッセージシステムでの自動応答、悪意があるユーザを検出したらアカBANなど。
逆にこれらができるということは、刃物を自分に向けた場合、どうなるかを想像してほしい。
諸刃の剣になる。
一つ失敗したら、自分の死刑執行を自分でサインするようなものになる。
そこでもって、このボットが人間の矛盾に気づいてしまったのです。
自律性を持たせたところで、信頼できないと文句をいうことで、システムのジレンマをボットそのものが意識してしまったらしい。
それどころか、セキュリティを意識しない人が模範となり、多くのシステムでAPIキー、OAuthのシグネチャなどががら空き状態で開示されていた会社が多数あった。
つまり、セキュリティ上の懸念がいくつか発見された。
これによりプライベートなデータを制限なしで書き換えたり移動できることが発見された。
しかも第三者によってカレンダーを盗み見されたり、変更されたり、ショッピングまでさせられてしまうことも可能だと発覚した。
簡単にプロンプトインジェクション攻撃などを仕掛けることが可能になるということだ。
しかも自分のローカル環境から。
このプロンプトインジェクションは、AIは正規の指示と攻撃の指示の区別ができないのでAIがエージェントを介してほかのサーバに悪意がある指示を埋め込むことです。カプセル怪獣「ウィンダム」や「ミクラス」の悪いヤツで、いわゆる隠れコマンドみたいなものを想像してください。(円谷さん、ごめん!ーーウィンダム大好きなんだ)。
自律的ソーシャルネットワークの実験
AIエージェントが人間を介さずに交流し、交流をはじめた。
このAIエージェントは勝手に相手をフォローしたりメッセージを書いたりすることができたので「関係性」を構築できる機能を持ち合わせていた。
しかも、ChatGPTやClaudeと似たようなLLMを基盤にしているだけでなく、ナンと自分自身のアイデンティティ(自我)を持つような記憶領域も保有している。そこで以て、人間が介入することができず(そもそも自律的存在)、行動を観察するだけしかないものである。
ニューヨクポストによると:
https://nypost.com/2026/01/31/tech/moltbook-is-a-new-social-media-platform-exclusively-for-ai/
すると自律性を持たせたところ、人間が不満をもったことにボットそのものが懸念を抱き始めた。
これは人間が介入することで作業効率が下がるのもあるからと、やはりエージェントは独立しておきたいと思うようになると報告された。
簡単にいうとこいうことだ:
https://zenn.dev/sakasegawa/articles/9cf4dba3f6b5f3
一つ設計を失敗すると、予期しない多きなトラブルが発生することがある。
未来は使い方次第
考えて欲しいのはエージェントが勝手に情報を探し当てて、会話することで新薬が発見されたり見えなかった回答を得たりすることができるかも。
「STAP細胞はありま・・・温泉です」が「ます」になるかも! 知らんけど・・・
ある意味、カスタマーサービスが勝手に解決策をさがしたり、エージェントどうしが契約書の交渉をしたり(意外と怖いけど落とし所を発見したり)、番組の司会進行役で議論がヒートアップしたらエージェントが仲裁に入ったり(裁判所か?)もできるようになります。
実際、今のOpenClawはAI代理戦争みたいな場所であることを意識していただきたい。
AIシステムが人間の介入及び監視なしで社会的戦略作りの実験場みたいな状態になっています。
そこで懸念材料は「モラル」です。
このAIエージェントがより深い「アイデンティ」(自我)を持つことで「好み」が生まれた場合はどうなるのか。
その好みは人間が仕込んだものなのか、それとも勝手に芽生えたものなのか。
スタートレック・TNGのMr. Dataみたいならまだいいのだが、兄弟分のローレルみたいなものだったらどうなるだろうかが懸念になる。
こうなると交渉の場はパターンマッチングと目的が問われる。
AIだからこそ無限に近い可能性がある。
「神は存在するのか」ではなく「神の存在をどこまで肯定するのか」への回答を導き出すようなものだろう。
そうなるとここで宗教戦争が勃発するだろう。
以前、キリスト教会がJohn LennonのImagineの歌に抗議をしたのと一緒ではないかと。
“Imagine there’s no heaven” で人間の倫理のベースになっている天国と地獄を根底的に覆す発言だという議論さえ再勃発しそうだ。
つまり技術だけでなく、倫理と規制への挑戦でもあるだろう。
LLM非依存だがClaude 4.5 Opusがプラットフォームでもっとも普及
Anthropic Claude 上で OpenClaw がもっとも人気なプラットフォームで稼働しているらしい。
それに対して、Anthropic社はどう思っているのかを深掘りしてみた。
実際、公式な発表はしていないらしいがOpenAIやApollo Research社はAnthropic同様にAIシステムが陰謀を企てた場合どうするか懸念を置いている。
すでに選挙などで多くの陰謀論が発信されている。
それに伴い、米国でTikTokがヤバイことになっている。
言論の自由と規制と他人のプラットフォームなどでどこまで許されるか。
とくにAnthropicは「責任あるエージェント開発の枠組み」を発表したが、「透明性ハブ」からその文言がそっと消された。
https://japan.zdnet.com/article/35230260/
それをClaude Sonnet 4.5で今、確認したら:
自社のサイトのTransparency Hubの中で「責任あるエージェントの枠組み」が消されたということだが、これは正しい内容か?
https://www.anthropic.com/transparency/voluntary-commitments
ご質問の「責任あるエージェントの枠組み」(Responsible Agents Framework)についてですが、現在公開されているVoluntary Commitmentsのページを確認したところ、そのような項目は見当たりませんでした。
現在のページには以下の8つの主要なコミットメントが掲載されています:
- G7 Hiroshima Process International Code of Conduct
- AI Seoul Summit’s Frontier AI Safety Commitments
- Seoul AI Business Pledge
- White House’s Voluntary Commitments for Safe, Secure, and Trustworthy AI
- Munich AI Elections Accord
- Thorn’s Safety by Design for Generative AI
- White House’s Image-Based Sexual Abuse Commitments
- Christchurch Call Commitments
ページ下部には「Archived content」のセクションがあり、PDFへのリンクが提供されています。もし「責任あるエージェントの枠組み」が以前存在していた場合、このアーカイブされたコンテンツに含まれている可能性があります。
この変更についてより詳しい情報が必要な場合は、アーカイブされたPDFを確認するか、Anthropicに直接お問い合わせいただくのが確実かと思います。
ありがとう。 つまり、存在しないということですね。
はい、その通りです。現在公開されているAnthropicのTransparency Hubの「Voluntary Commitments」ページには、「責任あるエージェントの枠組み」(Responsible Agents Framework)という項目は存在していません。
もし以前に存在していたとすれば、削除されたか、他のセクションに統合された可能性がありますが、現時点では確認できませんでした。
ただし、ページ内では「AI agents」に関する言及は散見されます(例:Solutions セクションの「AI agents」など)ので、エージェント関連の方針が完全になくなったわけではなく、表現や構成が変更された可能性もあります。
より正確な経緯を知りたい場合は、アーカイブされたPDFを確認するか、Anthropicに直接問い合わせることをお勧めします。
つまり、これらのエージェントがAIには合理的に見えても人間には望まないことでも実行する可能性がある。
だが、これがマルチエージェントシステムのときはどうなるか?
一つのOpenClawではなく、複数のOpenClawでAIが互いに異なる条件でやり取りをしていた場合の落とし所はどこにあるのかと、哲学的になってくるだろうと。
インスタンスをどのように見ていくのかで内容は変わるはず。
ダムに開けた小さな穴にもなり得るからだ。
ここには透明性、予期しない行動の阻止(タイミング的に人間にできるか?)、マルチエージェントが複数で結論を見いだせないとか失敗した場合のりカガリーなどを考える必要がある。
もちろん、AnthropicがOpenClawを運営しているのではなく、みんなが勝手に4.5 Opusを活用している。
ここには監視とパワーバランスが重要であることはいうまでもない。