論文の概要: Causal-aware Large Language Models: Enhancing Decision-Making Through Learning, Adapting and Acting
- arxiv url: http://arxiv.org/abs/2505.24710v1
- Date: Fri, 30 May 2025 15:30:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:53.036949
- Title: Causal-aware Large Language Models: Enhancing Decision-Making Through Learning, Adapting and Acting
- Title(参考訳): 因果認識型大規模言語モデル:学習・適応・実行による意思決定の強化
- Authors: Wei Chen, Jiahao Zhang, Haipeng Zhu, Boyan Xu, Zhifeng Hao, Keli Zhang, Junjian Ye, Ruichu Cai,
- Abstract要約: 大規模言語モデル(LLM)は、モデル内に蓄積される膨大な知識のため、意思決定において大きな可能性を示している。
構造因果モデル(SCM)を意思決定プロセスに統合し,環境の構造的知識をモデル化し,更新し,活用する因果認識型LCMを提案する。
- 参考スコア(独自算出の注目度): 25.351469582315975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have shown great potential in decision-making due to the vast amount of knowledge stored within the models. However, these pre-trained models are prone to lack reasoning abilities and are difficult to adapt to new environments, further hindering their application to complex real-world tasks. To address these challenges, inspired by the human cognitive process, we propose Causal-aware LLMs, which integrate the structural causal model (SCM) into the decision-making process to model, update, and utilize structured knowledge of the environment in a ``learning-adapting-acting" paradigm. Specifically, in the learning stage, we first utilize an LLM to extract the environment-specific causal entities and their causal relations to initialize a structured causal model of the environment. Subsequently,in the adapting stage, we update the structured causal model through external feedback about the environment, via an idea of causal intervention. Finally, in the acting stage, Causal-aware LLMs exploit structured causal knowledge for more efficient policy-making through the reinforcement learning agent. The above processes are performed iteratively to learn causal knowledge, ultimately enabling the causal-aware LLMs to achieve a more accurate understanding of the environment and make more efficient decisions. Experimental results across 22 diverse tasks within the open-world game ``Crafter" validate the effectiveness of our proposed method.
- Abstract(参考訳): 大規模言語モデル(LLM)は、モデル内に蓄積される膨大な知識のため、意思決定において大きな可能性を示している。
しかし、これらの事前訓練されたモデルは推論能力に欠ける傾向があり、新しい環境への適応が困難であり、さらに複雑な現実世界のタスクへの応用を妨げる。
人間の認知プロセスにインスパイアされたこれらの課題に対処するため、我々は、「学習適応行動」パラダイムにおいて、環境の構造的因果モデル(SCM)をモデル化・更新・活用するための意思決定プロセスに統合する因果認識LSMを提案し、特に学習段階では、環境固有の因果モデルとその因果関係を抽出し、環境の構造的因果モデルを初期化するためにLSMを利用し、その後、適応段階において、因果介入のアイデアを通じて、環境の外部フィードバックを通じて構造的因果モデルを更新する。最後に、因果認識LSMは、より効率的な政策決定のための構造的知識を利用して、より効率的な政策決定プロセスを通じて、より効率的な因果関係の学習を行う。
関連論文リスト
- Retrieval Augmented Learning: A Retrial-based Large Language Model Self-Supervised Learning and Autonomous Knowledge Generation [13.284415692423039]
本稿では,Large Language Models(LLMs)のための報酬なし自己教師型学習フレームワークであるRetrial-Augmented Learning(RAL)を紹介する。
中間データを整理するモジュールとして検索補助生成(RAG)を開発することにより,仮説を提案し,仮説を検証し,知識を生成する3段階の自律的知識生成を実現した。
実験により,提案手法は,評価知識の生成と活用によって幻覚を効果的に低減し,極めて低コストで意思決定性能を向上することを示した。
論文 参考訳(メタデータ) (2025-05-02T07:25:01Z) - LLM Post-Training: A Deep Dive into Reasoning Large Language Models [131.10969986056]
大規模言語モデル (LLMs) は自然言語処理の状況を変え、多様な応用をもたらした。
ポストトレーニング手法により、LLMは知識を洗練させ、推論を改善し、事実の正確性を高め、ユーザの意図や倫理的配慮をより効果的に整合させることができる。
論文 参考訳(メタデータ) (2025-02-28T18:59:54Z) - Towards Empowerment Gain through Causal Structure Learning in Model-Based RL [35.933469787075]
本稿では,学習効率と制御性を向上させるための新しいフレームワークであるEmpowerment through Causal Learning (ECL)を提案する。
ECLは、まず、収集されたデータに基づいて環境の因果ダイナミクスモデルを訓練する。
そして、探索によって収集されたデータを同時に利用して、因果ダイナミクスモデルをより制御しやすいように更新する。
論文 参考訳(メタデータ) (2025-02-14T10:59:09Z) - Language Agents Meet Causality -- Bridging LLMs and Causal World Models [50.79984529172807]
因果表現学習を大規模言語モデルと統合する枠組みを提案する。
このフレームワークは、自然言語表現に関連付けられた因果変数を持つ因果世界モデルを学ぶ。
本研究では,時間的スケールと環境の複雑さを考慮した因果推論と計画課題の枠組みを評価する。
論文 参考訳(メタデータ) (2024-10-25T18:36:37Z) - On the Modeling Capabilities of Large Language Models for Sequential Decision Making [52.128546842746246]
大規模な事前訓練されたモデルでは、推論や計画タスクのパフォーマンスがますます向上している。
我々は、直接的または間接的に、意思決定ポリシーを作成する能力を評価する。
未知の力学を持つ環境において、合成データを用いた微調整LDMが報酬モデリング能力を大幅に向上させる方法について検討する。
論文 参考訳(メタデータ) (2024-10-08T03:12:57Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Probing the Decision Boundaries of In-context Learning in Large Language Models [31.977886254197138]
本稿では,テキスト内二項分類のための決定境界のレンズからテキスト内学習を探索し,理解するための新しいメカニズムを提案する。
驚いたことに、単純な二項分類タスクにおいて、現在のLLMによって学習される決定境界は、しばしば不規則で非滑らかである。
論文 参考訳(メタデータ) (2024-06-17T06:00:24Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。