論文の概要: Think, Speak, Decide: Language-Augmented Multi-Agent Reinforcement Learning for Economic Decision-Making
- arxiv url: http://arxiv.org/abs/2511.12876v1
- Date: Mon, 17 Nov 2025 02:09:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.59993
- Title: Think, Speak, Decide: Language-Augmented Multi-Agent Reinforcement Learning for Economic Decision-Making
- Title(参考訳): 思考, 話し, 決定: 言語強化型多言語強化学習による経済意思決定
- Authors: Heyang Ma, Qirui Mi, Qipeng Yang, Zijun Fan, Bo Li, Haifeng Zhang,
- Abstract要約: 本稿では,LAMP(Language-Augmented Multi-Agent Policy)を提案する。
経済シミュレーション実験により、LAMPは累積リターンにおいてMARLとLLMのみのベースラインを上回っていることが示された。
これらの結果は、より効果的で堅牢な経済戦略を提供するための言語強化された政策の可能性を示している。
- 参考スコア(独自算出の注目度): 6.60259708714043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Economic decision-making depends not only on structured signals such as prices and taxes, but also on unstructured language, including peer dialogue and media narratives. While multi-agent reinforcement learning (MARL) has shown promise in optimizing economic decisions, it struggles with the semantic ambiguity and contextual richness of language. We propose LAMP (Language-Augmented Multi-Agent Policy), a framework that integrates language into economic decision-making and narrows the gap to real-world settings. LAMP follows a Think-Speak-Decide pipeline: (1) Think interprets numerical observations to extract short-term shocks and long-term trends, caching high-value reasoning trajectories; (2) Speak crafts and exchanges strategic messages based on reasoning, updating beliefs by parsing peer communications; and (3) Decide fuses numerical data, reasoning, and reflections into a MARL policy to optimize language-augmented decision-making. Experiments in economic simulation show that LAMP outperforms both MARL and LLM-only baselines in cumulative return (+63.5%, +34.0%), robustness (+18.8%, +59.4%), and interpretability. These results demonstrate the potential of language-augmented policies to deliver more effective and robust economic strategies.
- Abstract(参考訳): 経済的な意思決定は、価格や税金などの構造的信号だけでなく、ピア対話やメディアの物語を含む非構造的言語にも依存する。
マルチエージェント強化学習(MARL)は、経済決定の最適化において有望であるが、言語の意味的あいまいさと文脈的豊かさに苦慮している。
本稿では,LAMP(Language-Augmented Multi-Agent Policy)を提案する。
LAMPは,(1)短期的ショックや長期的傾向の抽出,高価値推論の軌跡のキャッシュ,(2)推論に基づく戦略的メッセージの共有,ピアコミュニケーションのパースによる信念の更新,(3)数値データや推論,リフレクションを融合してMARLポリシを最適化し,言語による意思決定を最適化する。
経済シミュレーションの実験では、LAMPは累積リターン(+63.5%、+34.0%)、ロバストネス(+18.8%、+59.4%)、解釈可能性においてMARLとLLMのみのベースラインを上回っている。
これらの結果は、より効果的で堅牢な経済戦略を提供するための言語強化された政策の可能性を示している。
関連論文リスト
- When Less Language is More: Language-Reasoning Disentanglement Makes LLMs Better Multilingual Reasoners [111.50503126693444]
言語固有のアブレーションは多言語推論性能を継続的に向上させることを示す。
トレーニング後のアブレーションと比較して、トレーニング不要のアブレーションは、計算オーバーヘッドを最小限に抑えながら、同等または優れた結果が得られる。
論文 参考訳(メタデータ) (2025-05-21T08:35:05Z) - Language Mixing in Reasoning Language Models: Patterns, Impact, and Internal Causes [54.96891982093408]
RLM(Reasoning Language Model)は、チェーン・オブ・シント・プロセスを利用して構造化中間ステップを生成することで、複雑なタスクに優れる。
言語混合、すなわちプロンプト以外の言語からのトークンを含む推論ステップがアウトプットで観測され、性能に影響することが示されている。
本研究では, RLMにおける言語混合に関する最初の体系的研究を行い, そのパターン, 影響, 内部要因を15言語にわたって検討した。
論文 参考訳(メタデータ) (2025-05-20T18:26:53Z) - Simulation of Language Evolution under Regulated Social Media Platforms: A Synergistic Approach of Large Language Models and Genetic Algorithms [6.550725258692423]
ソーシャルメディアプラットフォームは、しばしばユーザーコンテンツを穏健化するために制限的なポリシーを課し、創造的回避言語戦略の出現を促している。
本稿では,規制制約下での言語戦略の反復的進化をシミュレートする,Large Language Models (LLM)に基づくマルチエージェントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-26T14:59:27Z) - Balanced Multi-Factor In-Context Learning for Multilingual Large Language Models [53.38288894305388]
MLLM(Multilingual Large Language Model)は,言語間知識伝達をパラメータ更新なしで活用することにより,文脈内学習(ICL)を活用して高い性能を実現する。
1) 意味的類似性,(2) 言語的アライメント,(3) 言語固有のパフォーマンスの3つの要因が多言語ICLに影響を与える。
我々は,これらの因子を定量化し,最適にバランスをとる手法として,バランスの取れた多要素ICL(textbfBMF-ICL)を提案する。
論文 参考訳(メタデータ) (2025-02-17T06:56:33Z) - GLEE: A Unified Framework and Benchmark for Language-based Economic Environments [19.366120861935105]
大規模言語モデル(LLM)は、経済的および戦略的相互作用において大きな可能性を示す。
これらの疑問は、LLMベースのエージェントを実世界のデータ駆動システムに統合することの経済的および社会的意味について重要なものとなっている。
本稿では,2プレイヤー,シーケンシャル,言語ベースのゲームの研究を標準化するためのベンチマークを紹介する。
論文 参考訳(メタデータ) (2024-10-07T17:55:35Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - Let Models Speak Ciphers: Multiagent Debate through Embeddings [84.20336971784495]
この問題を解決するためにCIPHER(Communicative Inter-Model Protocol Through Embedding Representation)を導入する。
自然言語から逸脱することで、CIPHERはモデルの重みを変更することなく、より広い範囲の情報を符号化する利点を提供する。
このことは、LLM間の通信における代替の"言語"としての埋め込みの優越性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-10T03:06:38Z) - Unveiling the Potential of Sentiment: Can Large Language Models Predict Chinese Stock Price Movements? [13.682396634686159]
本稿では,大規模言語モデルの包括的評価のための標準化された実験手法を提案する。
性能向上のためのユニークなアプローチを具現化した3つの異なるLCMを用いて,その方法論を詳述する。
これらの感情要因を用いて量的トレーディング戦略を開発し、現実的なシナリオでバックテストを実施します。
論文 参考訳(メタデータ) (2023-06-25T12:08:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。