論文の概要: Bridging Expectation Signals: LLM-Based Experiments and a Behavioral Kalman Filter Framework
- arxiv url: http://arxiv.org/abs/2601.17527v1
- Date: Sat, 24 Jan 2026 16:56:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.902751
- Title: Bridging Expectation Signals: LLM-Based Experiments and a Behavioral Kalman Filter Framework
- Title(参考訳): ブリッジング期待信号:LCMに基づく実験と行動カルマンフィルタフレームワーク
- Authors: Yu Wang, Xiangchen Liu,
- Abstract要約: 我々は,LCMをベースとしたエージェントが期待をどう更新するかを定量化する行動カルマンフィルタフレームワークを開発した。
家庭と企業CEOのエージェントは、集約的な信号に比べて、個々の信号にかなり大きな重みを置いている。
LLMの予測生成において,LoRAの微調整は緩和されるが,行動バイアスを完全に排除するものではないことを実証する。
- 参考スコア(独自算出の注目度): 2.5735476569508995
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As LLMs increasingly function as economic agents, the specific mechanisms LLMs use to update their belief with heterogeneous signals remain opaque. We design experiments and develop a Behavioral Kalman Filter framework to quantify how LLM-based agents update expectations, acting as households or firm CEOs, update expectations when presented with individual and aggregate signals. The results from experiments and model estimation reveal four consistent patterns: (1) agents' weighting of priors and signals deviates from unity; (2) both household and firm CEO agents place substantially larger weights on individual signals compared to aggregate signals; (3) we identify a significant and negative interaction between concurrent signals, implying that the presence of multiple information sources diminishes the marginal weight assigned to each individual signal; and (4) expectation formation patterns differ significantly between household and firm CEO agents. Finally, we demonstrate that LoRA fine-tuning mitigates, but does not fully eliminate, behavioral biases in LLM expectation formation.
- Abstract(参考訳): LLMはますます経済的エージェントとして機能するようになり、LLMが信条を不均一な信号で更新するために使用する特定のメカニズムは不透明のままである。
我々は,LLMをベースとしたエージェントが,家庭や企業CEOとして期待を更新し,個々の信号と集約信号で期待を更新する方法を定量化する,行動カルマンフィルタフレームワークを設計し,開発する。
実験およびモデル推定の結果,(1) エージェントの事前重み付けと合体性から逸脱する信号の重み付け,(2) ホームエージェントと企業のCEOエージェントの双方が,集積信号と比較して信号の重み付けを著しく大きくし,(3) 同時信号間の有意かつ負の相互作用を同定し,複数の情報ソースの存在が個々の信号に割り当てられた限界重みを減少させること,(4) 期待形成パターンが世帯と企業CEOエージェント間で大きく異なること,の4つの一貫したパターンが明らかになった。
最後に, LLMの予測生成における行動バイアスを完全に排除するわけではないが, LoRA の微調整が軽減されることを実証する。
関連論文リスト
- TransportAgents: a multi-agents LLM framework for traffic accident severity prediction [1.4871782604215074]
TransportAgentsは、カテゴリ固有のLSM推論と多層パーセプトロン(MLP)統合モジュールを統合するハイブリッドマルチエージェントフレームワークである。
米国内の2つのデータセットの実験では、TransportAgentsは従来の機械学習と高度なLCMベースのベースラインを一貫して上回っている。
このフレームワークは強力な堅牢性、スケーラビリティ、およびデータセット間の一般化性を示す。
論文 参考訳(メタデータ) (2026-01-21T23:14:05Z) - Anchors in the Machine: Behavioral and Attributional Evidence of Anchoring Bias in LLMs [0.0]
本稿では,3つのコントリビューションを通じて,大規模言語モデル(LLM)のアンカー化に関する研究を進める。
その結果、Gemma-2B、Phi-2、Llama-2-7Bではアンカーが再重み付けに影響を及ぼすことが示唆された。
LLMのアンカーバイアスは、適用ドメインのリスクを強調しながら、堅牢で、測定可能で、解釈可能であることを示す。
論文 参考訳(メタデータ) (2025-11-07T23:35:19Z) - CoMAS: Co-Evolving Multi-Agent Systems via Interaction Rewards [80.78748457530718]
自己進化(Self-evolution)は、大規模言語モデル(LLM)ベースのエージェントが事前トレーニング後の能力を継続的に改善できるようにする上で、中心的な研究トピックである。
エージェントがエージェント間相互作用から学習することで自律的に改善できる新しいフレームワークであるCo-Evolving Multi-Agent Systems (CoMAS)を紹介する。
論文 参考訳(メタデータ) (2025-10-09T17:50:26Z) - Corrupted by Reasoning: Reasoning Language Models Become Free-Riders in Public Goods Games [87.5673042805229]
大規模言語モデルは、アライメント、堅牢性、安全なデプロイメントを保証する上で、いかに自己関心と集合的幸福のバランスをとるかが重要な課題である。
我々は、行動経済学から制度的に選択した公共財ゲームに適応し、異なるLLMがいかに社会的ジレンマをナビゲートするかを観察することができる。
意外なことに、o1シリーズのようなLCMの推論は、協調にかなり苦労している。
論文 参考訳(メタデータ) (2025-06-29T15:02:47Z) - Collaborative Value Function Estimation Under Model Mismatch: A Federated Temporal Difference Analysis [55.13545823385091]
フェデレーション強化学習(FedRL)は、エージェント間のデータ交換を防止し、データのプライバシを維持しながら協調学習を可能にする。
現実世界のアプリケーションでは、各エージェントは若干異なる遷移ダイナミクスを経験し、固有のモデルミスマッチを引き起こす。
情報共有の適度なレベルでさえ、環境固有のエラーを著しく軽減することを示す。
論文 参考訳(メタデータ) (2025-03-21T18:06:28Z) - Does Worst-Performing Agent Lead the Pack? Analyzing Agent Dynamics in Unified Distributed SGD [7.434126318858966]
分散学習は、異種エージェント間の機械学習アルゴリズムのトレーニングに不可欠である。
我々は統一分散SGD(UD-SGD)の分析を行う。
我々は、UD-SGDの収束速度に、サンプリング、シャッフル、マルコフサンプリングなどの異なるサンプリング戦略がどう影響するかを評価する。
論文 参考訳(メタデータ) (2024-09-26T03:12:20Z) - Explaining Large Language Models Decisions Using Shapley Values [1.223779595809275]
大規模言語モデル(LLM)は、人間の行動や認知過程をシミュレートするエキサイティングな可能性を開いた。
しかし, LLMを人体用スタンドインとして活用する妥当性は, いまだに不明である。
本稿では,モデルの出力に対する各プロンプト成分の相対的寄与を定量化するために,シェープリー値に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T22:49:43Z) - How Far Are LLMs from Believable AI? A Benchmark for Evaluating the Believability of Human Behavior Simulation [46.42384207122049]
我々は,人間の振る舞いをシミュレートする際の大規模言語モデル (LLM) の信頼性を評価するために SimulateBench を設計する。
SimulateBenchに基づいて、文字をシミュレートする際、広く使われている10個のLLMの性能を評価する。
論文 参考訳(メタデータ) (2023-12-28T16:51:11Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。