論文の概要: Aligning LLM agents with human learning and adjustment behavior: a dual agent approach
- arxiv url: http://arxiv.org/abs/2511.00993v1
- Date: Sun, 02 Nov 2025 16:05:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.019114
- Title: Aligning LLM agents with human learning and adjustment behavior: a dual agent approach
- Title(参考訳): 人間の学習・調整行動を考慮したLLMエージェントの配向 : 二重エージェントアプローチ
- Authors: Tianming Liu, Jirong Yang, Yafeng Yin, Manzi Li, Linghao Wang, Zheng Zhu,
- Abstract要約: 本稿では,Large Language Model (LLM)エージェントと人的旅行者の継続的な学習とアライメントを可能にする,新しいデュアルエージェントフレームワークを提案する。
我々のアプローチは、メモリシステムと人間旅行者のシミュレータとして機能する学習可能なペルソナを備えたLSMトラベラーエージェントのセットである。
本研究では,従来のLCM法よりも行動アライメントと集合シミュレーションの精度が優れていることを示す。
- 参考スコア(独自算出の注目度): 30.79232557548701
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective modeling of how human travelers learn and adjust their travel behavior from interacting with transportation systems is critical for system assessment and planning. However, this task is also difficult due to the complex cognition and decision-making involved in such behavior. Recent research has begun to leverage Large Language Model (LLM) agents for this task. Building on this, we introduce a novel dual-agent framework that enables continuous learning and alignment between LLM agents and human travelers on learning and adaptation behavior from online data streams. Our approach involves a set of LLM traveler agents, equipped with a memory system and a learnable persona, which serve as simulators for human travelers. To ensure behavioral alignment, we introduce an LLM calibration agent that leverages the reasoning and analytical capabilities of LLMs to train the personas of these traveler agents. Working together, this dual-agent system is designed to track and align the underlying decision-making mechanisms of travelers and produce realistic, adaptive simulations. Using a real-world dataset from a day-to-day route choice experiment, we show our approach significantly outperforms existing LLM-based methods in both individual behavioral alignment and aggregate simulation accuracy. Furthermore, we demonstrate that our method moves beyond simple behavioral mimicry to capture the evolution of underlying learning processes, a deeper alignment that fosters robust generalization. Overall, our framework provides a new approach for creating adaptive and behaviorally realistic agents to simulate travelers' learning and adaptation that can benefit transportation simulation and policy analysis.
- Abstract(参考訳): 交通システムとの相互作用から人の旅行行動の学習・調整方法の効果的なモデリングは,システム評価と計画に不可欠である。
しかし、このような行動に関わる複雑な認知と意思決定のため、この課題も困難である。
近年,この課題にLarge Language Model (LLM) エージェントを活用する研究が始まっている。
これに基づいて、オンラインデータストリームからの学習と適応行動に関するLLMエージェントと人間旅行者の継続的な学習とアライメントを可能にする、新しいデュアルエージェントフレームワークを導入する。
我々のアプローチは、メモリシステムと人間旅行者のシミュレータとして機能する学習可能なペルソナを備えたLSM旅行エージェントのセットである。
行動アライメントを確保するために,LLMの推論能力と解析能力を活用して,これらの旅行者エージェントのペルソナを訓練するLLMキャリブレーションエージェントを導入する。
この二重エージェントシステムは、旅行者の意思決定メカニズムを追跡し調整し、現実的で適応的なシミュレーションを作成するように設計されている。
本研究では,日々の経路選択実験から得られた実世界のデータセットを用いて,従来のLCM法よりも行動アライメントと集合シミュレーションの精度が優れていることを示す。
さらに、本手法は、基礎となる学習過程の進化を捉えるために、単純な行動模倣を超えて、より深いアライメントによって、堅牢な一般化を促進することを実証する。
本フレームワークは,旅行者の学習と適応をシミュレートし,交通シミュレーションや政策分析に役立てるための適応的かつ行動的現実的なエージェントを作成するための新しいアプローチを提供する。
関連論文リスト
- Improving LLM Agent Planning with In-Context Learning via Atomic Fact Augmentation and Lookahead Search [48.348209577994865]
大規模言語モデル(LLM)はますます有能になるが、複雑で対話的な環境で効果的に機能するためには、重要なガイダンスや広範な相互作用履歴を必要とすることが多い。
テキスト内学習による計画能力を高める新しいLLMエージェントフレームワークを提案する。
我々のエージェントは、その相互作用軌跡からタスククリティカルな原子事実'を抽出することを学ぶ。
論文 参考訳(メタデータ) (2025-06-10T18:36:31Z) - Training LLM-Based Agents with Synthetic Self-Reflected Trajectories and Partial Masking [61.61356842567952]
LLMに基づくエージェントトレーニングを改善するための新しい手法STePを提案する。
誤差ステップの反射や補正を含む自己反射軌道を合成する。
実験により,提案手法は3つの代表的なタスクにおいてエージェント性能を向上させることが示された。
論文 参考訳(メタデータ) (2025-05-26T14:11:12Z) - Aligning LLM with human travel choices: a persona-based embedding learning approach [15.11130742093296]
本稿では,大規模言語モデルと人間の旅行選択行動の整合性を示す新しい枠組みを提案する。
我々のフレームワークは、パーソナ推論とロードプロセスを使用して、アライメントを強化するのに適したプロンプトでLLMを条件付けします。
論文 参考訳(メタデータ) (2025-05-25T06:54:01Z) - Can LLM Agents Simulate Multi-Turn Human Behavior? Evidence from Real Online Customer Behavior Data [46.65903742010956]
本研究では,人間の行動を正確にシミュレートする,最先端のLDMの能力の大規模定量的評価を行った。
230,965件のユーザアクションを含む31,865件のオンラインショッピングセッションから得られた実世界データを用いて,プロンプトベースのLCMが人間の行動生成においてわずか11.86%の精度で達成できることを明らかにする。
また, 実クリックスルーデータに対して, モデルの性能を大幅に向上させる手法として, 実クリックスルーデータに対する微調整 LLM の戦略を提示する。
論文 参考訳(メタデータ) (2025-03-26T17:33:27Z) - Navigating Motion Agents in Dynamic and Cluttered Environments through LLM Reasoning [69.5875073447454]
本稿では,大規模言語モデル(LLM)によって強化された動作エージェントを,動的・乱雑な環境における自律的なナビゲーションに向けて前進させる。
トレーニング不要なフレームワークは、マルチエージェント調整、クローズドループ計画、動的障害物回避を、リトレーニングや微調整なしでサポートしています。
論文 参考訳(メタデータ) (2025-03-10T13:39:09Z) - AI-Driven Day-to-Day Route Choice [15.934133434324755]
LLMTravelerは過去の経験から学び、検索したデータと性格特性のバランスをとることで意思決定を行うエージェントである。
本稿では,LLMTravelerが日常の混雑ゲーム2段階を通じて人間的な意思決定を再現する能力について,体系的に評価する。
この能力は、旅行者の新しいポリシーに対する反応やネットワークの変更をシミュレートするなど、交通政策立案に有用な洞察を提供する。
論文 参考訳(メタデータ) (2024-12-04T14:13:38Z) - Systematic Biases in LLM Simulations of Debates [12.933509143906141]
人間の相互作用をシミュレートする際の大規模言語モデルの限界について検討する。
以上の結果から, LLMエージェントがモデル固有の社会的バイアスに適合する傾向が示唆された。
これらの結果は、エージェントがこれらのバイアスを克服するのに役立つ方法を開発するためのさらなる研究の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-06T14:51:55Z) - Model-Based Reinforcement Learning with Multi-Task Offline Pretraining [59.82457030180094]
本稿では,オフラインデータから新しいタスクへ,潜在的に有用なダイナミックスや動作デモを伝達するモデルベースRL法を提案する。
主な考え方は、世界モデルを行動学習のシミュレーターとしてだけでなく、タスクの関連性を測定するツールとして使うことである。
本稿では,Meta-WorldとDeepMind Control Suiteの最先端手法と比較して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-06-06T02:24:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。