論文の概要: Multiple LLM Agents Debate for Equitable Cultural Alignment
- arxiv url: http://arxiv.org/abs/2505.24671v1
- Date: Fri, 30 May 2025 15:01:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:53.014385
- Title: Multiple LLM Agents Debate for Equitable Cultural Alignment
- Title(参考訳): 文化的アライメントの適正化を議論する複数のLDMエージェント
- Authors: Dayeon Ki, Rachel Rudinger, Tianyi Zhou, Marine Carpuat,
- Abstract要約: LLMをベースとした2人のエージェントが文化的なシナリオについて議論し、共同で最終決定を下すマルチエージェント議論フレームワークを導入する。
オープンウェイトLLM(および21LLMの組み合わせ)に対するこれらのアプローチを,75カ国の社会的エチケット規範に対するNormAd-ETIベンチマークを用いて評価した。
実験により、単一LLMベースラインよりも総合的精度と文化的グループパリティの両方を改善することが示されている。
- 参考スコア(独自算出の注目度): 39.974611538629304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) need to adapt their predictions to diverse cultural contexts to benefit diverse communities across the world. While previous efforts have focused on single-LLM, single-turn approaches, we propose to exploit the complementary strengths of multiple LLMs to promote cultural adaptability. We introduce a Multi-Agent Debate framework, where two LLM-based agents debate over a cultural scenario and collaboratively reach a final decision. We propose two variants: one where either LLM agents exclusively debate and another where they dynamically choose between self-reflection and debate during their turns. We evaluate these approaches on 7 open-weight LLMs (and 21 LLM combinations) using the NormAd-ETI benchmark for social etiquette norms in 75 countries. Experiments show that debate improves both overall accuracy and cultural group parity over single-LLM baselines. Notably, multi-agent debate enables relatively small LLMs (7-9B) to achieve accuracies comparable to that of a much larger model (27B parameters).
- Abstract(参考訳): 大規模言語モデル(LLM)は、世界中の多様なコミュニティに利益をもたらすために、その予測を多様な文化的文脈に適応させる必要がある。
これまでの取り組みでは, 単一LLM, 単一ターンアプローチに重点を置いてきたが, 複数のLDMの相補的強みを活用し, 文化的適応性を高めることを提案する。
LLMをベースとした2人のエージェントが文化的なシナリオについて議論し、共同で最終決定を下すマルチエージェント議論フレームワークを導入する。
LLMエージェントが排他的に議論を行う場合と、旋回中の自己回帰と議論を動的に選択する場合の2つのバリエーションを提案する。
オープンウェイトLLM(および21LLMの組み合わせ)に対するこれらのアプローチを,75カ国の社会的エチケット規範に対するNormAd-ETIベンチマークを用いて評価した。
実験により、単一LLMベースラインよりも総合的精度と文化的グループパリティの両方を改善することが示されている。
特に、マルチエージェントの議論では、比較的小さなLLM(7-9B)が、より大きなモデル(27Bパラメータ)のそれと同等の精度を達成することができる。
関連論文リスト
- Arbiters of Ambivalence: Challenges of Using LLMs in No-Consensus Tasks [52.098988739649705]
本研究では, LLMのバイアスと限界について, 応答生成器, 判定器, 討論器の3つの役割について検討した。
我々は、様々な先行的曖昧なシナリオを含む例をキュレートすることで、合意なしのベンチマークを開発する。
以上の結果から, LLMは, オープンエンドの回答を生成する際に, 曖昧な評価を行うことができる一方で, 審査員や討論者として採用する場合は, 合意なしのトピックにスタンスを取る傾向が示唆された。
論文 参考訳(メタデータ) (2025-05-28T01:31:54Z) - WorldView-Bench: A Benchmark for Evaluating Global Cultural Perspectives in Large Language Models [1.094065133109559]
大規模言語モデル(LLM)は、西洋中心の認識論と社会文化的規範を強化する方法で主に訓練され、整列されている。
多様な世界観に対応する能力を分析し,LLMにおけるグローバルカルチャー・インクルーシティ(GCI)を評価するためのベンチマークであるWorldView-Benchを紹介する。
論文 参考訳(メタデータ) (2025-05-14T17:43:40Z) - Don't Stop the Multi-Party! On Generating Synthetic Multi-Party Conversations with Constraints [11.566214724241798]
マルチパーティ会話(MPC)は、ソーシャルメディアを主要なデータソースとして、そのアクセシビリティのために広く研究されている。
本研究は,命令調整型大規模言語モデルを用いた多種多様なMPC生成の実現可能性について検討する。
論文 参考訳(メタデータ) (2025-02-19T10:10:43Z) - When One LLM Drools, Multi-LLM Collaboration Rules [98.71562711695991]
私たちは、データ、スキル、人々の幅広い多様性を表現するために、マルチLLMコラボレーションを議論しています。
既存のマルチLLM協調手法を,アクセスレベルと情報交換レベルに基づいて階層構造に整理する。
コンポジションインテリジェンスとコラボレーティブAI開発への不可欠な道として,マルチLLMコラボレーションを構想する。
論文 参考訳(メタデータ) (2025-02-06T21:13:44Z) - Toward Inclusive Educational AI: Auditing Frontier LLMs through a Multiplexity Lens [1.094065133109559]
本稿では,大規模言語モデル(LLM)における文化的バイアスの評価と緩和のための枠組みを提案する。
分析の結果,LLMには文化的偏極が頻繁に見られ,バイアスは過度にも微妙にも現れることがわかった。
システムプロンプトに直接多重化原理を組み込む textitContextual-Implemented Multiplex LLM と、複数の LLM エージェントがそれぞれ異なる文化的視点を表現し、バランスよく合成された応答を協調的に生成する textitMulti-Agent System (MAS)-Implemented Multiplex LLM という2つの戦略を提案する。
論文 参考訳(メタデータ) (2025-01-02T11:27:08Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - CulturalTeaming: AI-Assisted Interactive Red-Teaming for Challenging LLMs' (Lack of) Multicultural Knowledge [69.82940934994333]
我々は、人間とAIのコラボレーションを活用して、挑戦的な評価データセットを構築するインタラクティブなレッドチームシステムであるCulturalTeamingを紹介する。
我々の研究は、CulturalTeamingの様々なAI支援モードが、文化的な質問の作成においてアノテータを支援することを明らかにした。
CULTURALBENCH-V0.1は、ユーザのリピートの試みにより、コンパクトだが高品質な評価データセットである。
論文 参考訳(メタデータ) (2024-04-10T00:25:09Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z) - Examining Inter-Consistency of Large Language Models Collaboration: An
In-depth Analysis via Debate [41.949869545423375]
大きな言語モデル(LLM)は、様々なアプリケーションで印象的な機能を示しているが、それでも様々な矛盾問題に直面している。
LLMが効果的に協力して共有目標のコンセンサスを達成するためには,コモンセンス推論に焦点をあてる。
我々の研究は,LLM間の一貫性の理解に寄与し,今後のコラボレーション手法開発の基礎を築いた。
論文 参考訳(メタデータ) (2023-05-19T11:15:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。