論文の概要: Neuro-Symbolic Causal Language Planning with Commonsense Prompting
- arxiv url: http://arxiv.org/abs/2206.02928v1
- Date: Mon, 6 Jun 2022 22:09:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 13:38:57.477134
- Title: Neuro-Symbolic Causal Language Planning with Commonsense Prompting
- Title(参考訳): Commonsense Promptingを用いたニューロシンボリック因果言語計画
- Authors: Yujie Lu, Weixi Feng, Wanrong Zhu, Wenda Xu, Xin Eric Wang, Miguel
Eckstein, William Yang Wang
- Abstract要約: 言語プランニングは、より単純な低レベルステップに分解することで、複雑な高レベルな目標を実装することを目的としている。
以前の手法では、大規模な言語モデルからそのような能力を得るために、手動の例えか注釈付きプログラムが必要である。
本稿では,LLMからの手続き的知識をコモンセンス・インフュージョン・プロンプトにより引き起こすニューロシンボリック因果言語プランナー(CLAP)を提案する。
- 参考スコア(独自算出の注目度): 67.06667162430118
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language planning aims to implement complex high-level goals by decomposition
into sequential simpler low-level steps. Such procedural reasoning ability is
essential for applications such as household robots and virtual assistants.
Although language planning is a basic skill set for humans in daily life, it
remains a challenge for large language models (LLMs) that lack deep-level
commonsense knowledge in the real world. Previous methods require either manual
exemplars or annotated programs to acquire such ability from LLMs. In contrast,
this paper proposes Neuro-Symbolic Causal Language Planner (CLAP) that elicits
procedural knowledge from the LLMs with commonsense-infused prompting.
Pre-trained knowledge in LLMs is essentially an unobserved confounder that
causes spurious correlations between tasks and action plans. Through the lens
of a Structural Causal Model (SCM), we propose an effective strategy in CLAP to
construct prompts as a causal intervention toward our SCM. Using graph sampling
techniques and symbolic program executors, our strategy formalizes the
structured causal prompts from commonsense knowledge bases. CLAP obtains
state-of-the-art performance on WikiHow and RobotHow, achieving a relative
improvement of 5.28% in human evaluations under the counterfactual setting.
This indicates the superiority of CLAP in causal language planning semantically
and sequentially.
- Abstract(参考訳): 言語プランニングは、より単純な低レベルステップに分解することで、複雑な高レベル目標を実装することを目的としている。
このような手続き的推論能力は、家庭用ロボットや仮想アシスタントなどの応用には不可欠である。
言語計画は、人間の日常生活における基本的なスキルセットであるが、現実世界の深い常識知識に欠ける大規模言語モデル(LLM)には依然として課題である。
従来の手法では、LSMからそのような能力を得るために手動の例や注釈付きプログラムが必要である。
対照的に本論文では,LLMの手続き的知識をコモンセンス・インフュージョン・プロンプトによって引き起こすニューロシンボリック因果言語プランナー(CLAP)を提案する。
LLMの事前訓練された知識は、本質的には観測されていない共同創設者であり、タスクとアクションプランの間に急激な相関関係をもたらす。
構造因果モデル (Structure Causal Model, SCM) のレンズを通して, SCMに対する因果的介入としてプロンプトを構築するための効果的な戦略を提案する。
グラフサンプリング手法と記号型プログラム実行器を用いて,コモンセンス知識ベースからの構造化因果プロンプトを定式化する。
CLAPはWikiHowとRobotHowで最先端のパフォーマンスを取得し、対実的な設定の下で人間評価の5.28%を相対的に改善した。
これは、因果言語計画におけるCLAPのセマンティックおよびシーケンシャルな優位性を示している。
関連論文リスト
- KnowAgent: Knowledge-Augmented Planning for LLM-Based Agents [54.09074527006576]
大規模言語モデル(LLM)は複雑な推論タスクにおいて大きな可能性を証明していますが、より高度な課題に取り組むには不十分です。
この不適切さは、主に言語エージェントのアクション知識が組み込まれていないことに起因する。
我々は、明示的な行動知識を取り入れることで、LLMの計画能力を高めるために設計された新しいアプローチであるKnowAgentを紹介する。
論文 参考訳(メタデータ) (2024-03-05T16:39:12Z) - LLM-Powered Hierarchical Language Agent for Real-time Human-AI
Coordination [28.22553394518179]
人-AI協調のための階層型言語エージェント(HLA)を提案する。
HLAは、リアルタイム実行を維持しながら、強力な推論能力を提供する。
人間の研究では、HLAは他のベースラインエージェントより優れており、スローミンドのみのエージェントやファストミンドのみのエージェントがある。
論文 参考訳(メタデータ) (2023-12-23T11:09:48Z) - Learning adaptive planning representations with natural language
guidance [90.24449752926866]
本稿では,タスク固有の計画表現を自動構築するフレームワークであるAdaについて述べる。
Adaは、プランナー互換の高レベルアクション抽象化と、特定の計画タスク領域に適応した低レベルコントローラのライブラリを対話的に学習する。
論文 参考訳(メタデータ) (2023-12-13T23:35:31Z) - LgTS: Dynamic Task Sampling using LLM-generated sub-goals for
Reinforcement Learning Agents [10.936460061405157]
LgTS (LLM-Guided Teacher-Student Learning) を提案する。
提案手法では,提案したサブゴールを達成するための事前訓練されたポリシーも必要としない。
論文 参考訳(メタデータ) (2023-10-14T00:07:03Z) - Leveraging Large Language Models for Exploiting ASR Uncertainty [16.740712975166407]
大規模な言語モデルは、書き起こしのための既製の音声認識システムに依存するか、あるいは内蔵された音声モダリティを備える必要がある。
我々は,高い単語誤り率でLLMの発話意図を理解する能力を制限する音声意図分類タスクに取り組む。
我々は,誤り発生1-best仮説に代えて,ASR仮説のn-bestリストでLLMを推し進めることを提案する。
論文 参考訳(メタデータ) (2023-09-09T17:02:33Z) - ISR-LLM: Iterative Self-Refined Large Language Model for Long-Horizon
Sequential Task Planning [7.701407633867452]
大規模言語モデル(LLM)は、タスクに依存しないプランナとして一般化性を高める可能性を提供する。
ISR-LLMは,反復的な自己複製プロセスを通じてLCMに基づく計画を改善する新しいフレームワークである。
ISR-LLM は現状の LLM ベースのプランナに比べてタスク達成率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2023-08-26T01:31:35Z) - Coupling Large Language Models with Logic Programming for Robust and
General Reasoning from Text [5.532477732693001]
大規模言語モデルは, 意味論的に非常に効果的な数ショットとして機能することを示す。
自然言語文を論理形式に変換し、応答集合プログラムの入力として機能する。
本手法は,bAbI, StepGame, CLUTRR, gSCAN など,いくつかのベンチマークにおいて最先端性能を実現する。
論文 参考訳(メタデータ) (2023-07-15T03:29:59Z) - PlaSma: Making Small Language Models Better Procedural Knowledge Models
for (Counterfactual) Planning [72.0564921186518]
PlaSmaは、手続き的な知識と(非現実的な)計画能力を持つ小さな言語モデルを実現するための、新しい2段階のアプローチである。
より具体的には、小言語モデルにおける暗黙的知識を高めるために、記号的手続き的知識蒸留を開発する。
さらに, 対実的状況に対応するための計画の見直しを必要とする, 対実的計画という新たな課題を導入する。
論文 参考訳(メタデータ) (2023-05-31T00:55:40Z) - Learning to Solve Voxel Building Embodied Tasks from Pixels and Natural
Language Instructions [53.21504989297547]
本研究では,Minecraftのような環境下でのオブジェクト構築作業において,言語モデルと強化学習を組み合わせた新しい手法を提案する。
提案手法は,まず命令から一貫した達成可能なサブゴールのセットを生成し,学習済みのRLポリシーで関連するサブタスクを完了させる。
論文 参考訳(メタデータ) (2022-11-01T18:30:42Z) - Language Models as Zero-Shot Planners: Extracting Actionable Knowledge
for Embodied Agents [111.33545170562337]
自然言語で表現された高レベルなタスクを、選択された実行可能なステップのセットに基底付ける可能性について検討する。
事前学習したLMが十分に大きく、適切に誘導された場合、ハイレベルなタスクを効果的に低レベルな計画に分解できることがわかった。
本稿では,既存の実演の条件を規定し,計画が許容可能な行動に意味的に変換される手順を提案する。
論文 参考訳(メタデータ) (2022-01-18T18:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。