論文の概要: Emergent Convergence in Multi-Agent LLM Annotation
- arxiv url: http://arxiv.org/abs/2512.00047v1
- Date: Mon, 17 Nov 2025 13:42:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.406753
- Title: Emergent Convergence in Multi-Agent LLM Annotation
- Title(参考訳): マルチエージェントLDMアノテーションにおける創発的収束
- Authors: Angelina Parfenova, Alexander Denzler, Juergen Pfeffer,
- Abstract要約: 大規模言語モデル(LLM)はますます協調的な設定でデプロイされているが、ブラックボックスエージェントとして扱われる際のコーディネートについてはほとんど分かっていない。
我々は、7500個のマルチエージェント、複数ラウンドの議論をインダクティブコーディングタスクでシミュレートし、最終アノテーションと対話履歴の両方をキャプチャする125,000以上の発話を生成する。
コーディネーションのダイナミクスを追跡するために、コードの安定性、セマンティックな自己整合性、感情と収束の度合いを伴う語彙的信頼といったプロセスレベルのメトリクスを導入します。
- 参考スコア(独自算出の注目度): 46.741076110609704
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly deployed in collaborative settings, yet little is known about how they coordinate when treated as black-box agents. We simulate 7500 multi-agent, multi-round discussions in an inductive coding task, generating over 125000 utterances that capture both final annotations and their interactional histories. We introduce process-level metrics: code stability, semantic self-consistency, and lexical confidence alongside sentiment and convergence measures, to track coordination dynamics. To probe deeper alignment signals, we analyze the evolving geometry of output embeddings, showing that intrinsic dimensionality declines over rounds, suggesting semantic compression. The results reveal that LLM groups converge lexically and semantically, develop asymmetric influence patterns, and exhibit negotiation-like behaviors despite the absence of explicit role prompting. This work demonstrates how black-box interaction analysis can surface emergent coordination strategies, offering a scalable complement to internal probe-based interpretability methods.
- Abstract(参考訳): 大規模言語モデル(LLM)はますます協調的な設定でデプロイされているが、ブラックボックスエージェントとして扱われる際のコーディネートについてはほとんど分かっていない。
我々は、7500個のマルチエージェント、複数ラウンドの議論をインダクティブコーディングタスクでシミュレートし、最終アノテーションと対話履歴の両方をキャプチャする125,000以上の発話を生成する。
コーディネーションのダイナミクスを追跡するために、コードの安定性、セマンティックな自己整合性、感情と収束の度合いを伴う語彙的信頼といったプロセスレベルのメトリクスを導入します。
より深いアライメント信号の探索を目的として,出力埋め込みの進化的形状を解析し,本質的な次元性はラウンドによって低下し,意味的圧縮が示唆されることを示す。
その結果,LLM群は語彙的・意味的に収束し,非対称な影響パターンを発達させ,明示的な役割が欠如しているにもかかわらず交渉的な行動を示すことが明らかとなった。
この研究は、ブラックボックス間相互作用解析が創発的な協調戦略をどう表すかを示し、内部プローブベースの解釈可能性法をスケーラブルに補完する。
関連論文リスト
- Convergence dynamics of Agent-to-Agent Interactions with Misaligned objectives [3.9351446512514947]
マルチエージェントシナリオにおけるエージェントとエージェントの相互作用に関する理論的枠組みを開発する。
エージェントが不整合目的を持つ場合の相互作用に関連する生成ダイナミクスを特徴付ける。
本フレームワークは,マルチエージェントシステムの研究,予測,防衛を行うためのセットアップを提供する。
論文 参考訳(メタデータ) (2025-11-11T19:18:55Z) - Interaction Dynamics as a Reward Signal for LLMs [9.95504409344454]
エージェントのコミュニケーションは、言うほど成功の予測器だ。
この研究は、対話的な設定では、エージェントがどのように通信するかは、エージェントが言うほど成功の予測因子である、という強い証拠を提供する。
論文 参考訳(メタデータ) (2025-11-11T16:11:36Z) - CLASS-IT: Conversational and Lecture-Aligned Small-Scale Instruction Tuning for BabyLMs [81.79228604962687]
本研究は,小規模のLMが命令チューニングの恩恵を受けることができるかどうかを考察する。
我々は,統合的・逐次的なカリキュラムに適用された対話型および質問応答型指導調律データセットを比較した。
その結果、命令チューニングは微調整のシナリオでは小さくても一貫した利得をもたらすことが示され、逐次キュリキュラはマージされたデータより優れていた。
しかし、改良はゼロショットタスクに一貫して移行するわけではなく、相互作用中心の適応と広範な言語一般化とのトレードオフを示唆している。
論文 参考訳(メタデータ) (2025-10-29T10:36:39Z) - The Social Laboratory: A Psychometric Framework for Multi-Agent LLM Evaluation [0.16921396880325779]
マルチエージェント討論を制御された「社会実験室」として活用する新しい評価枠組みを導入する。
特に認知活動において、割り当てられたペルソナが安定した、測定可能な心理測定プロファイルを誘導することを示す。
この研究は、動的、心理学的に基礎付けられた評価プロトコルの新しいクラスの青写真を提供する。
論文 参考訳(メタデータ) (2025-10-01T07:10:28Z) - Explaining multimodal LLMs via intra-modal token interactions [55.27436637894534]
MLLM(Multimodal Large Language Models)は、様々な視覚言語タスクにおいて顕著な成功を収めているが、その内部決定機構は十分に理解されていない。
モーダル内相互作用を利用した解釈可能性の向上を提案する。
論文 参考訳(メタデータ) (2025-09-26T14:39:13Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z) - Tesseract: Tensorised Actors for Multi-Agent Reinforcement Learning [92.05556163518999]
MARLは、コミュニケーションと可観測性に様々な制約を課すことによって、問題を悪化させる。
値ベースの手法では、最適な値関数を正確に表現することが課題となる。
政策勾配法では、批判者の訓練を困難にし、遅れる批判者の問題を悪化させる。
学習理論の観点からは、関連するアクション値関数を正確に表現することで、両方の問題に対処できることが示される。
論文 参考訳(メタデータ) (2021-05-31T23:08:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。