論文の概要: Prompt Optimization Across Multiple Agents for Representing Diverse Human Populations
- arxiv url: http://arxiv.org/abs/2510.07064v1
- Date: Wed, 08 Oct 2025 14:28:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.555412
- Title: Prompt Optimization Across Multiple Agents for Representing Diverse Human Populations
- Title(参考訳): 多様な人口を表わす複数のエージェント間のプロンプト最適化
- Authors: Manh Hung Nguyen, Sebastian Tschiatschek, Adish Singla,
- Abstract要約: 本研究では,特定の個体群の多様性を総合的に把握するエージェント群を構築するための枠組みを提案する。
それぞれのエージェントは、人間のデモの小さなセットを条件付けすることで行動が制御されるLSMである。
提案手法は,ヒトの集団をベースラインよりも効果的に表現するエージェントを構築できることを示す。
- 参考スコア(独自算出の注目度): 24.453294687297984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The difficulty and expense of obtaining large-scale human responses make Large Language Models (LLMs) an attractive alternative and a promising proxy for human behavior. However, prior work shows that LLMs often produce homogeneous outputs that fail to capture the rich diversity of human perspectives and behaviors. Thus, rather than trying to capture this diversity with a single LLM agent, we propose a novel framework to construct a set of agents that collectively capture the diversity of a given human population. Each agent is an LLM whose behavior is steered by conditioning on a small set of human demonstrations (task-response pairs) through in-context learning. The central challenge is therefore to select a representative set of LLM agents from the exponentially large space of possible agents. We tackle this selection problem from the lens of submodular optimization. In particular, we develop methods that offer different trade-offs regarding time complexity and performance guarantees. Extensive experiments in crowdsourcing and educational domains demonstrate that our approach constructs agents that more effectively represent human populations compared to baselines. Moreover, behavioral analyses on new tasks show that these agents reproduce the behavior patterns and perspectives of the students and annotators they are designed to represent.
- Abstract(参考訳): 大規模な人間の反応を得るのが困難で費用がかかるため、Large Language Models (LLMs) は魅力的な代替品であり、人間の行動に有望なプロキシとなる。
しかし、以前の研究は、LLMが人間の視点や行動の多様性を捉えるのに失敗する均質な出力をしばしば生み出すことを示した。
したがって、この多様性を単一のLDMエージェントで捉えようとするのではなく、与えられた人間の多様性を集合的に捉えたエージェントの集合を構築するための新しい枠組みを提案する。
各エージェントは、コンテキスト内学習を通じて、人間のデモ(タスク-レスポンスペア)の小さなセットを条件付けすることで、振る舞いを操縦するLCMである。
したがって、中心的な課題は、可能なエージェントの指数的に大きな空間からLLMエージェントの代表集合を選択することである。
部分モジュラ最適化のレンズからこの選択問題に取り組む。
特に,時間的複雑性と性能保証に関して異なるトレードオフを提供する手法を開発する。
クラウドソーシングと教育領域における大規模な実験により,我々のアプローチは,ベースラインよりも人集団を効果的に表現するエージェントを構築することを実証した。
さらに,新しいタスクにおける行動分析により,これらのエージェントは,生徒の行動パターンや視点を再現し,それらが表わすように設計されたアノテータを再現することを示した。
関連論文リスト
- Multiple Weaks Win Single Strong: Large Language Models Ensemble Weak Reinforcement Learning Agents into a Supreme One [28.264011412168347]
モデルアンサンブルは強化学習(RL)において有効なエージェントの訓練に有用である。
LLM-Ensは,タスク固有の意味理解を用いてRLモデルのアンサンブルを強化する手法である。
論文 参考訳(メタデータ) (2025-05-21T09:35:43Z) - HiddenBench: Assessing Collective Reasoning in Multi-Agent LLMs via Hidden Profile Tasks [12.203366267017737]
マルチエージェント LLM における集合的推論を評価するための最初のベンチマークである HiddenBench を紹介する。
ベンチマークを基礎として,このパラダイムをカスタムタスクで形式化し,GPT-4.1グループが分散知識の統合に失敗したことを示す。
次に、カスタムデザイン、先行研究、自動生成から引き出された65のタスクにまたがる完全なベンチマークを構築します。
論文 参考訳(メタデータ) (2025-05-15T19:22:54Z) - Algorithmic Prompt Generation for Diverse Human-like Teaming and Communication with Large Language Models [14.45823275027527]
品質多様性(QD)最適化は、多様な強化学習(RL)エージェントの振る舞いを生成することができる。
我々はまず、人間-物体実験を通して、人間がこの領域で様々な協調行動とコミュニケーション行動を示すことを示す。
そして、我々の手法は、人間のチームデータからトレンドを効果的に再現し、観察できない振る舞いを捉えることができることを示す。
論文 参考訳(メタデータ) (2025-04-04T23:09:40Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - EvoAgent: Towards Automatic Multi-Agent Generation via Evolutionary Algorithms [55.77492625524141]
EvoAgentは、特殊エージェントをマルチエージェントシステムに自動的に拡張するジェネリックメソッドである。
EvoAgent は LLM エージェントのタスク解決能力を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2024-06-20T11:49:23Z) - Challenges Faced by Large Language Models in Solving Multi-Agent Flocking [17.081075782529098]
フラッキング(Flocking)とは、システム内の複数のエージェントが衝突を避け、望ましい形成を維持しながら互いに近づこうとする行動である。
近年,大規模言語モデル (LLM) は,個々の意思決定者として様々な協調課題を解くという印象的な能力を示している。
本稿では,マルチエージェント・フロッキングにおいてLLMが直面する課題について論じ,今後の改善分野を提案する。
論文 参考訳(メタデータ) (2024-04-06T22:34:07Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。