論文の概要: Language Models, Agent Models, and World Models: The LAW for Machine
Reasoning and Planning
- arxiv url: http://arxiv.org/abs/2312.05230v1
- Date: Fri, 8 Dec 2023 18:25:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 14:12:34.417058
- Title: Language Models, Agent Models, and World Models: The LAW for Machine
Reasoning and Planning
- Title(参考訳): 言語モデル、エージェントモデル、世界モデル:機械推論と計画のためのLAW
- Authors: Zhiting Hu, Tianmin Shu
- Abstract要約: 本稿では,言語モデル,エージェントモデル,世界モデルの概念を結合するマシン推論の新たな視点であるLAWについて述べる。
世界とエージェントモデルは推論のより優れた抽象化であり、故意に人間のような推論の重要な要素を導入します。
- 参考スコア(独自算出の注目度): 33.573628038590634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite their tremendous success in many applications, large language models
often fall short of consistent reasoning and planning in various (language,
embodied, and social) scenarios, due to inherent limitations in their
inference, learning, and modeling capabilities. In this position paper, we
present a new perspective of machine reasoning, LAW, that connects the concepts
of Language models, Agent models, and World models, for more robust and
versatile reasoning capabilities. In particular, we propose that world and
agent models are a better abstraction of reasoning, that introduces the crucial
elements of deliberate human-like reasoning, including beliefs about the world
and other agents, anticipation of consequences, goals/rewards, and strategic
planning. Crucially, language models in LAW serve as a backend to implement the
system or its elements and hence provide the computational power and
adaptability. We review the recent studies that have made relevant progress and
discuss future research directions towards operationalizing the LAW framework.
- Abstract(参考訳): 多くのアプリケーションで非常に成功したにもかかわらず、大きな言語モデルは、推論、学習、モデリング能力に固有の制限があるため、様々な(言語、具体的、社会的)シナリオにおける一貫した推論と計画に欠けることが多い。
本稿では,言語モデル,エージェントモデル,ワールドモデルといった概念を結合し,より堅牢で汎用的な推論機能を実現するマシン推論の新しい視点であるLAWについて述べる。
特に、世界とエージェントモデルが推論のより優れた抽象化であり、世界や他のエージェントに対する信念、結果の予測、目標/目標、戦略的計画など、人間のような推論を熟慮する重要な要素を導入することを提案している。
重要なことに、LAWの言語モデルはシステムやその要素を実装するバックエンドとして機能し、計算能力と適応性を提供する。
本稿では,LAWフレームワークの運用に向けた今後の研究の方向性について考察する。
関連論文リスト
- Proceedings of the First International Workshop on Next-Generation Language Models for Knowledge Representation and Reasoning (NeLaMKRR 2024) [16.282850445579857]
推論は人間の知性の本質的な要素であり、批判的に考える能力において基本的な役割を果たす。
自然言語処理における最近の進歩は、トランスフォーマーに基づく言語モデルの出現とともに、これらのモデルが推論能力を示す可能性を示唆している。
言語モデルにおける推論について議論が続いているが、これらのモデルが実際に推論できる程度に注目することは容易ではない。
論文 参考訳(メタデータ) (2024-10-07T02:31:47Z) - The Sociolinguistic Foundations of Language Modeling [34.02231580843069]
我々は、大きな言語モデルは本質的に言語の多様性のモデルであると主張する。
この視点が言語モデリングにおける5つの基本的な課題にどのように対処できるかについて議論する。
論文 参考訳(メタデータ) (2024-07-12T13:12:55Z) - L2CEval: Evaluating Language-to-Code Generation Capabilities of Large
Language Models [102.00201523306986]
大規模言語モデル(LLM)の言語間コード生成能力を体系的に評価するL2CEvalを提案する。
モデルのサイズ、事前学習データ、命令チューニング、異なるプロンプトメソッドなど、それらのパフォーマンスに影響を与える可能性のある要因を分析する。
モデル性能の評価に加えて、モデルに対する信頼性校正を計測し、出力プログラムの人間による評価を行う。
論文 参考訳(メタデータ) (2023-09-29T17:57:00Z) - Statler: State-Maintaining Language Models for Embodied Reasoning [19.884696137429813]
本研究では,大言語モデルに世界状態を推定するフレームワークであるStatlerを提案する。
そして、我々のフレームワークは、現在の世界状態の推定に対して各アクションを条件付けします。
複数のロボット計画タスクにおいて、強力な競合する手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-06-30T17:58:02Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - Improving Factuality and Reasoning in Language Models through Multiagent
Debate [95.10641301155232]
複数の言語モデルインスタンスが共通の最終回答に到達するために、複数のラウンドで個別の応答と推論プロセスを提案し、議論する言語応答を改善するための補完的なアプローチを提案する。
以上の結果から,本手法は様々なタスクにおける数学的・戦略的推論を著しく向上させることが示唆された。
我々のアプローチは、既存のブラックボックスモデルに直接適用され、調査するすべてのタスクに対して、同じ手順とプロンプトを使用することができる。
論文 参考訳(メタデータ) (2023-05-23T17:55:11Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z) - Foundation Models for Decision Making: Problems, Methods, and
Opportunities [124.79381732197649]
大規模に多様なデータに基づいて事前訓練された基礎モデルは、幅広いビジョンと言語タスクにおいて異常な能力を示してきた。
ファンデーションモデルをトレーニングし、他のエージェントと対話し、長期的な推論を行うための新しいパラダイムが生まれている。
基礎モデルと意思決定の交わりにおける研究は、強力な新しいシステムを作るための大きな約束である。
論文 参考訳(メタデータ) (2023-03-07T18:44:07Z) - On the Universality of Deep COntextual Language Models [15.218264849664715]
ELMOやBERTのような深い文脈言語モデル(LM)は、自然言語処理のランドスケープを支配している。
XLM-RやmBERTのような多言語モデルでは、ゼロショットのクロスリンガル転送が期待できる結果となった。
この最初の成功により、訓練済みのモデルはユニバーサル言語モデルとして使用されている。
論文 参考訳(メタデータ) (2021-09-15T08:00:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。