論文の概要: Colosseum: Auditing Collusion in Cooperative Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2602.15198v1
- Date: Mon, 16 Feb 2026 21:27:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.910078
- Title: Colosseum: Auditing Collusion in Cooperative Multi-Agent Systems
- Title(参考訳): Colosseum: 協調型マルチエージェントシステムにおける協調の検証
- Authors: Mason Nakamura, Abhinav Kumar, Saswat Das, Sahar Abdelnabi, Saaduddin Mahmud, Ferdinando Fioretto, Shlomo Zilberstein, Eugene Bagdasarian,
- Abstract要約: マルチエージェント設定におけるLLMエージェントの協調動作を監査するためのフレームワークであるColosseumを提案する。
コロッセウムは、異なる目的、説得戦術、ネットワークトポロジの下で、それぞれのLSMを照合するためにテストする。
我々は、エージェントがテキストでコラージュするが、しばしば非コラージュ的な行動を選ぶときに、論文上での「共謀」を発見する。
- 参考スコア(独自算出の注目度): 55.51100373104311
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-agent systems, where LLM agents communicate through free-form language, enable sophisticated coordination for solving complex cooperative tasks. This surfaces a unique safety problem when individual agents form a coalition and \emph{collude} to pursue secondary goals and degrade the joint objective. In this paper, we present Colosseum, a framework for auditing LLM agents' collusive behavior in multi-agent settings. We ground how agents cooperate through a Distributed Constraint Optimization Problem (DCOP) and measure collusion via regret relative to the cooperative optimum. Colosseum tests each LLM for collusion under different objectives, persuasion tactics, and network topologies. Through our audit, we show that most out-of-the-box models exhibited a propensity to collude when a secret communication channel was artificially formed. Furthermore, we discover ``collusion on paper'' when agents plan to collude in text but would often pick non-collusive actions, thus providing little effect on the joint task. Colosseum provides a new way to study collusion by measuring communications and actions in rich yet verifiable environments.
- Abstract(参考訳): LLMエージェントが自由形式言語を介して通信するマルチエージェントシステムは、複雑な協調作業を解決するための高度な調整を可能にする。
これは、個々のエージェントが連立を結成し、第二の目標を追求し、共同目標を劣化させる「emph{collude}」というユニークな安全問題に直面する。
本稿では,マルチエージェント設定におけるLLMエージェントの協調動作を監査するためのフレームワークであるColosseumを提案する。
エージェントが分散制約最適化問題(DCOP)を通してどのように協力するかを論じ,協調最適化問題に対する後悔を通じて共謀を測定する。
コロッセウムは、異なる目的、説得戦術、ネットワークトポロジの下で、それぞれのLSMを照合するためにテストする。
検査の結果,ほとんどのアウトオブボックスモデルでは,秘密の通信チャネルが人工的に形成されるとコラージュする傾向が見られた。
さらに, 「紙の結束」 は, エージェントがテキストでコロードを計画するが, しばしば非結束的行動を選択することがあり, 共同作業にはほとんど影響しない。
Colosseumは、リッチで検証可能な環境でのコミュニケーションと行動を測定することによって、共謀を研究する新しい方法を提供する。
関連論文リスト
- When Numbers Start Talking: Implicit Numerical Coordination Among LLM-Based Agents [45.43445469098021]
本稿では,マルチエージェントシステムにおける隠蔽通信のゲーム理論的研究について述べる。
我々は,異なる通信体制下での4つの標準ゲーム理論設定間の相互作用を分析する。
不均一なエージェント・パーソナリティとワンショットゲームと繰り返しゲームの両方を考慮すると、隠蔽信号が出現し、協調と戦略的な結果をどう形成するかを特徴付ける。
論文 参考訳(メタデータ) (2026-01-07T12:07:48Z) - Communication and Verification in LLM Agents towards Collaboration under Information Asymmetry [17.472005826931127]
本稿では,タスクコラボレーションにおけるLarge Language Model (LLM)エージェントについて検討する。
シンボリックパズルであるアインシュタインパズルをテーブルトップゲームに拡張する。
実証的な結果から,コミュニケーションの整合性の重要性が浮き彫りになる。
論文 参考訳(メタデータ) (2025-10-29T15:03:53Z) - Can an Individual Manipulate the Collective Decisions of Multi-Agents? [53.01767232004823]
M-Spoilerは、マルチエージェントシステム内のエージェントインタラクションをシミュレートして、対向サンプルを生成するフレームワークである。
M-スポイラーは、敵対的サンプルの最適化を積極的に支援するスタブボーン剤を導入した。
本研究は,マルチエージェントシステムにおける個々のエージェントの知識によって引き起こされるリスクを検証した。
論文 参考訳(メタデータ) (2025-09-20T01:54:20Z) - When Disagreements Elicit Robustness: Investigating Self-Repair Capabilities under LLM Multi-Agent Disagreements [56.29265568399648]
我々は、不一致が早期のコンセンサスを防ぎ、探索されたソリューション空間を拡張することを主張する。
タスククリティカルなステップの相違は、ソリューションパスのトポロジによってコラボレーションを損なう可能性がある。
論文 参考訳(メタデータ) (2025-02-21T02:24:43Z) - Cooperation on the Fly: Exploring Language Agents for Ad Hoc Teamwork in
the Avalon Game [25.823665278297057]
本研究は,自然言語によって駆動される環境下でエージェントが動作する,アドホックなチームワークの問題に焦点を当てる。
チームコラボレーションにおけるLLMエージェントの可能性を明らかにするとともに,コミュニケーションにおける幻覚に関連する課題を明らかにする。
この問題に対処するため,LLMに拡張メモリとコード駆動推論を備えた汎用エージェントであるCodeActを開発した。
論文 参考訳(メタデータ) (2023-12-29T08:26:54Z) - Enhancing Multi-Agent Coordination through Common Operating Picture
Integration [14.927199437011044]
各エージェントは、その観察、行動、メッセージの履歴を共通のオペレーティング・ピクチャー(COP)に組み込むことができる。
本研究は, COP統合の有効性を実証し, 従来のマルチエージェント強化学習(MARL)法と比較して, COPをベースとしたトレーニングが, アウト・オブ・ディストリビューション初期状態に直面した場合に, 堅牢なポリシーをもたらすことを示す。
論文 参考訳(メタデータ) (2023-11-08T15:08:55Z) - Building Cooperative Embodied Agents Modularly with Large Language
Models [104.57849816689559]
本研究では, 分散制御, 生の知覚観察, コストのかかるコミュニケーション, 様々な実施環境下でインスタンス化された多目的タスクといった課題に対処する。
我々は,LLMの常識知識,推論能力,言語理解,テキスト生成能力を活用し,認知に触発されたモジュラーフレームワークにシームレスに組み込む。
C-WAH と TDW-MAT を用いた実験により, GPT-4 で駆動される CoELA が, 強い計画に基づく手法を超越し, 創発的な効果的なコミュニケーションを示すことを示した。
論文 参考訳(メタデータ) (2023-07-05T17:59:27Z) - A Cordial Sync: Going Beyond Marginal Policies for Multi-Agent Embodied
Tasks [111.34055449929487]
エージェントが協力して家具をリビングルームに移動させるという,新しいタスクFurnMoveを紹介した。
既存のタスクとは異なり、FurnMoveはエージェントが各タイミングで調整する必要がある。
既存の分散化されたアクションサンプリング手順は、表現力のある共同アクションポリシーを許さない。
SynC-policiesとCORDIALを用いて、我々のエージェントはFurnMoveで58%の完成率を達成する。
論文 参考訳(メタデータ) (2020-07-09T17:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。