論文の概要: Let's Roleplay: Examining LLM Alignment in Collaborative Dialogues
- arxiv url: http://arxiv.org/abs/2509.05882v1
- Date: Sun, 07 Sep 2025 00:58:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.758352
- Title: Let's Roleplay: Examining LLM Alignment in Collaborative Dialogues
- Title(参考訳): Let's Roleplay: 協調対話におけるLLMアライメントの検討
- Authors: Abhijnan Nath, Carine Graff, Nikhil Krishnaswamy,
- Abstract要約: 本稿では,多人数共同作業におけるパートナーとしての大規模言語モデルの有効性に,異なるアライメント手法がどのような影響を与えるかを検討する。
ロールプレイ手法を用いて、協調作業会話における異なる訓練された摩擦剤の介入を評価する。
以上の結果から, 摩擦認識アプローチは, 共通基盤への収束, あるいはタスク関連命題の一致, タスク結果の正当性の両方において, 共通のアライメントベースラインを著しく上回ることがわかった。
- 参考スコア(独自算出の注目度): 11.888786446094057
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Large Language Models (LLMs) integrate into diverse workflows, they are increasingly being considered "collaborators" with humans. If such AI collaborators are to be reliable, their behavior over multiturn interactions must be predictable, validated and verified before deployment. Common alignment techniques are typically developed under simplified single-user settings and do not account for the dynamics of long-horizon multiparty interactions. This paper examines how different alignment methods affect LLM agents' effectiveness as partners in multiturn, multiparty collaborations. We study this question through the lens of friction agents that intervene in group dialogues to encourage the collaborative group to slow down and reflect upon their reasoning for deliberative decision-making. Using a roleplay methodology, we evaluate interventions from differently-trained friction agents in collaborative task conversations. We propose a novel counterfactual evaluation framework that quantifies how friction interventions change the trajectory of group collaboration and belief alignment. Our results show that a friction-aware approach significantly outperforms common alignment baselines in helping both convergence to a common ground, or agreed-upon task-relevant propositions, and correctness of task outcomes.
- Abstract(参考訳): 大規模言語モデル(LLM)が多様なワークフローに統合されるにつれ、人間との"協力者"がますます多くなっています。
このようなAIコラボレータが信頼性を持つ必要がある場合、マルチターンインタラクションに対する動作は、デプロイ前に予測可能、検証可能、検証されなければならない。
一般的なアライメント技術は、通常、単純化された単一ユーザ設定の下で開発され、長距離多人数インタラクションのダイナミクスを考慮しない。
本稿では,多人数共同作業におけるLLMエージェントの有効性に異なるアライメント手法がどう影響するかを検討する。
本研究は,グループ対話に介入する摩擦剤のレンズを用いて,協調グループを減速させ,熟考的意思決定の理由を反映させる。
ロールプレイ手法を用いて、協調作業会話における異なる訓練された摩擦剤の介入を評価する。
本稿では, 摩擦介入が集団協調や信念整合の軌跡をどのように変化させるかを定量的に評価する, 新たな反事実評価フレームワークを提案する。
以上の結果から, 摩擦認識アプローチは, 共通基盤への収束, あるいはタスク関連命題の一致, タスク結果の正当性の両方において, 共通のアライメントベースラインを著しく上回ることがわかった。
関連論文リスト
- OSC: Cognitive Orchestration through Dynamic Knowledge Alignment in Multi-Agent LLM Collaboration [13.032459988986068]
OSC(Orchestrating Cognitive Synergy)は、知識を意識したアダプティブコラボレーションフレームワークである。
これは、大きな言語モデルを持つマルチエージェントシステムにおける認知シナジーを高める。
論文 参考訳(メタデータ) (2025-09-05T07:44:05Z) - How large language models judge and influence human cooperation [82.07571393247476]
我々は、最先端の言語モデルが協調行動をどのように判断するかを評価する。
我々は、善良な相手との協力を評価する際、顕著な合意を守ります。
モデル間の差異が協調の頻度に大きく影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2025-06-30T09:14:42Z) - mmCooper: A Multi-agent Multi-stage Communication-efficient and Collaboration-robust Cooperative Perception Framework [12.896563384343889]
mmCooperは、新しいマルチエージェント、マルチステージ、コミュニケーション効率、コラボロバストな協調認識フレームワークである。
本フレームワークはエージェント間の情報共有のための中間段階と後期段階の情報をバランスさせ,コミュニケーション効率を維持しつつ知覚性能を向上させる。
論文 参考訳(メタデータ) (2025-01-21T16:34:16Z) - CORD: Generalizable Cooperation via Role Diversity [37.82009228311012]
我々は,役割多様性,すなわち CORD を通じて一般化可能な協調を可能にする階層的MARL手法を提案する。
CORDのハイレベルコントローラは、制約付きロールエントロピーを最大化することで、ローレベルエージェントにロールを割り当てる。
この制約された目的は、合理的な役割割り当てを可能にする役割の因果的影響と、一貫性のない非冗長な役割クラスタを生み出す役割の不均一性に分解できることを示す。
論文 参考訳(メタデータ) (2025-01-04T07:53:38Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - Cooperation, Competition, and Maliciousness: LLM-Stakeholders Interactive Negotiation [52.930183136111864]
我々は,大言語モデル(LLM)を評価するためにスコーラブルネゴシエーション(scorable negotiations)を提案する。
合意に達するには、エージェントは強力な算術、推論、探索、計画能力を持つ必要がある。
我々は、新しいゲームを作成し、進化するベンチマークを持つことの難しさを増大させる手順を提供する。
論文 参考訳(メタデータ) (2023-09-29T13:33:06Z) - Establishing Shared Query Understanding in an Open Multi-Agent System [1.2031796234206138]
本研究では,協調を要するタスクを実行するために,2つのエージェント間の共通理解を開発する手法を提案する。
本手法は,オープンマルチエージェントシステムにおけるタスク指向コミュニケーションの効率向上に重点を置いている。
論文 参考訳(メタデータ) (2023-05-16T11:07:05Z) - Rethinking Trajectory Prediction via "Team Game" [118.59480535826094]
本稿では,対話型グループコンセンサスの概念を明示的に導入した,マルチエージェント軌道予測の新しい定式化について述べる。
チームスポーツと歩行者の2つのマルチエージェント設定において,提案手法は既存手法と比較して常に優れた性能を達成している。
論文 参考訳(メタデータ) (2022-10-17T07:16:44Z) - Modeling the Interaction between Agents in Cooperative Multi-Agent
Reinforcement Learning [2.9360071145551068]
対話型アクター・クリティック(IAC)と呼ばれる新しい協調型MARLアルゴリズムを提案する。
IACは政策と価値関数の観点からエージェントの相互作用をモデル化する。
連続制御タスクに値分解手法を拡張し、古典的な制御やマルチエージェント粒子環境を含むベンチマークタスク上でIACを評価する。
論文 参考訳(メタデータ) (2021-02-10T01:58:28Z) - DCR-Net: A Deep Co-Interactive Relation Network for Joint Dialog Act
Recognition and Sentiment Classification [77.59549450705384]
ダイアログシステムでは、ダイアログアクト認識と感情分類は2つの相関タスクである。
既存のシステムのほとんどは、それらを別々のタスクとして扱うか、単に2つのタスクを一緒にモデル化するだけです。
本稿では,2つのタスク間の相互作用をモデル化するディープ・コ・インタラクティブ・リレーショナル・ネットワーク(DCR-Net)を提案する。
論文 参考訳(メタデータ) (2020-08-16T14:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。