論文の概要: Convergence of Outputs When Two Large Language Models Interact in a Multi-Agentic Setup
- arxiv url: http://arxiv.org/abs/2512.06256v1
- Date: Sat, 06 Dec 2025 03:00:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.269062
- Title: Convergence of Outputs When Two Large Language Models Interact in a Multi-Agentic Setup
- Title(参考訳): 多言語セットアップにおける2大言語モデル間相互作用時の出力の収束
- Authors: Aniruddha Maiti, Satya Nimmagadda, Kartha Veerya Jammuladinne, Niladri Sengupta, Ananya Jana,
- Abstract要約: 2つの大きな言語モデルは、マルチエージェントのセットアップで外部入力なしで、多くのターンで互いに応答する。
ほとんどの会話は一貫性を持って始まるが、後で繰り返しになる。
これは、同じまたは類似のテキストが繰り返し生成されるループにつながる。
- 参考スコア(独自算出の注目度): 0.19573380763700712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we report what happens when two large language models respond to each other for many turns without any outside input in a multi-agent setup. The setup begins with a short seed sentence. After that, each model reads the other's output and generates a response. This continues for a fixed number of steps. We used Mistral Nemo Base 2407 and Llama 2 13B hf. We observed that most conversations start coherently but later fall into repetition. In many runs, a short phrase appears and repeats across turns. Once repetition begins, both models tend to produce similar output rather than introducing a new direction in the conversation. This leads to a loop where the same or similar text is produced repeatedly. We describe this behavior as a form of convergence. It occurs even though the models are large, trained separately, and not given any prompt instructions. To study this behavior, we apply lexical and embedding-based metrics to measure how far the conversation drifts from the initial seed and how similar the outputs of the two models becomes as the conversation progresses.
- Abstract(参考訳): 本研究では,2つの大規模言語モデルが複数回にわたって相互に応答した場合,外部からの入力を伴わずに,マルチエージェント設定で何が起こるかを報告する。
セットアップは短いシード文から始まる。
その後、各モデルは相手の出力を読み出し、応答を生成します。
これは一定回数のステップで続く。
私たちはMistral Nemo Base 2407とLlama 2 13B hfを使用しました。
ほとんどの会話は一貫性を持って始まるが、後で繰り返しになる。
多くの場面で、短いフレーズが出現し、順番に繰り返される。
繰り返しが始まると、どちらのモデルも会話に新しい方向を導入するよりも、同様の出力を生成する傾向がある。
これは、同じまたは類似のテキストが繰り返し生成されるループにつながる。
この行動は収束の一形態として記述する。
モデルが大きく、個別に訓練されており、迅速な指示を与えていないにもかかわらず、それは発生します。
この振る舞いを研究するために、語彙と埋め込みに基づくメトリクスを適用し、会話が最初のシードからどれだけ離れているか、そして会話が進行するにつれて2つのモデルの出力がどの程度類似しているかを測定する。
関連論文リスト
- ConsistentChat: Building Skeleton-Guided Consistent Multi-Turn Dialogues for Large Language Models from Scratch [79.12929103519922]
Skeleton-Guided Multi-Turn Dialogue Generationは、人間の意図を明示的にモデル化することで、マルチターン命令合成を制約する。
約15,000のマルチターン会話と224,392の発話を持つマルチターン命令データセットであるConsistentChatを構築した。
Light, Topdial, MT-Evalベンチマークの実験では、ConsistentChatで微調整されたモデルでは、チャットの一貫性が20~30%向上し、タスクの成功率が15%向上している。
論文 参考訳(メタデータ) (2025-06-04T04:21:48Z) - Pretraining Language Models to Ponder in Continuous Space [50.52734567589996]
単一のトークン生成ステップ内で,前処理を繰り返し呼び出すことによって,この思考プロセスを言語モデルに導入する。
人間のアノテーションを使わずに、自己教師付き学習を通じて、この方法でモデルを学習できることが示される。
論文 参考訳(メタデータ) (2025-05-27T03:47:33Z) - Evaluation of Large Language Models via Coupled Token Generation [19.187846871216568]
最先端の大規模言語モデルは、プロンプトに対応するためにランダム化に依存している。
大規模言語モデルの評価とランク付けは,それらの機能を支えるランダム化を制御すべきである,と我々は主張する。
論文 参考訳(メタデータ) (2025-02-03T19:01:17Z) - Modeling Real-Time Interactive Conversations as Timed Diarized Transcripts [11.067252960486272]
本稿では,事前学習した言語モデルを用いて,リアルタイム対話型会話をシミュレートする簡易かつ汎用的な手法を提案する。
本稿では,インスタントメッセージ対話と音声会話の2つのケーススタディを用いて,この手法の可能性を実証する。
論文 参考訳(メタデータ) (2024-05-21T21:14:31Z) - Unveiling Multilinguality in Transformer Models: Exploring Language
Specificity in Feed-Forward Networks [12.7259425362286]
多言語モデルがキー値記憶をどのように活用するかを検討する。
2つ以上の言語で訓練された自己回帰モデルに対して、すべてのニューロン(層全体)は全ての言語に等しく反応するのか?
その結果,ネットワークの入力や出力に最も近い層は,中間層に比べて言語固有の振る舞いを示す傾向があることがわかった。
論文 参考訳(メタデータ) (2023-10-24T06:45:00Z) - Phrase Retrieval for Open-Domain Conversational Question Answering with
Conversational Dependency Modeling via Contrastive Learning [54.55643652781891]
Open-Domain Conversational Question Answering (ODConvQA)は、マルチターン会話を通じて質問に答えることを目的としている。
そこで本研究では,単語列に対する句検索方式を用いて,回答を直接予測する手法を提案する。
論文 参考訳(メタデータ) (2023-06-07T09:46:38Z) - Separate And Diffuse: Using a Pretrained Diffusion Model for Improving
Source Separation [99.19786288094596]
上界をランダムな生成モデルに一般化する方法を示す。
複数のベンチマークで2, 3, 5, 10, 20人の話者に最先端の結果を示す。
論文 参考訳(メタデータ) (2023-01-25T18:21:51Z) - Twist Decoding: Diverse Generators Guide Each Other [116.20780037268801]
様々なモデルの恩恵を受けながらテキストを生成するシンプルで一般的な推論アルゴリズムであるTwist decodingを導入する。
我々の方法は、語彙、トークン化、あるいは生成順序が共有されていると仮定しない。
論文 参考訳(メタデータ) (2022-05-19T01:27:53Z) - Multi-View Sequence-to-Sequence Models with Conversational Structure for
Abstractive Dialogue Summarization [72.54873655114844]
テキスト要約は、NLPにおいて最も困難で興味深い問題の1つである。
本研究では、まず、異なる視点から構造化されていない日々のチャットの会話構造を抽出し、会話を表現するマルチビューシーケンス・ツー・シーケンスモデルを提案する。
大規模対話要約コーパスの実験により,本手法は,自動評価と人的判断の両面から,従来の最先端モデルよりも有意に優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-04T20:12:44Z) - "Wait, I'm Still Talking!" Predicting the Dialogue Interaction Behavior
Using Imagine-Then-Arbitrate Model [24.560203199376478]
実際の人間と人間の会話では、1ターンで長いメッセージではなく、可読性のためのいくつかの短いメッセージが順次送信されることが多い。
本稿では,エージェントが待機するか,直接応答するかを決定するのに役立つ,新しいImagine-then-Arbitrate(ITA)ニューラルダイアログモデルを提案する。
論文 参考訳(メタデータ) (2020-02-22T04:05:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。