論文の概要: Full Automation of Goal-driven LLM Dialog Threads with And-Or Recursors
and Refiner Oracles
- arxiv url: http://arxiv.org/abs/2306.14077v1
- Date: Sat, 24 Jun 2023 23:33:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 17:01:35.892718
- Title: Full Automation of Goal-driven LLM Dialog Threads with And-Or Recursors
and Refiner Oracles
- Title(参考訳): And-Or RecursorとRefiner Oracleによるゴール駆動LDMダイアログスレッドの完全自動化
- Authors: Paul Tarau
- Abstract要約: 我々は,LLMダイアログスレッドのステップバイステップ推論を,選択肢(ORノード)を探索し,詳細(ANDノード)を与えられた深さまで拡張することで自動化する。
本アルゴリズムは,Hhorn Clauseインタプリタの簡単な再帰実装から導かれる。
応用として、結果予測、因果的説明、推薦システム、科学文献の話題に焦点をあてた探索の実装をスケッチする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We automate deep step-by step reasoning in an LLM dialog thread by
recursively exploring alternatives (OR-nodes) and expanding details (AND-nodes)
up to a given depth. Starting from a single succinct task-specific initiator we
steer the automated dialog thread to stay focussed on the task by synthesizing
a prompt that summarizes the depth-first steps taken so far.
Our algorithm is derived from a simple recursive descent implementation of a
Horn Clause interpreter, except that we accommodate our logic engine to fit the
natural language reasoning patterns LLMs have been trained on. Semantic
similarity to ground-truth facts or oracle advice from another LLM instance is
used to restrict the search space and validate the traces of justification
steps returned as answers. At the end, the unique minimal model of a generated
Horn Clause program collects the results of the reasoning process.
As applications, we sketch implementations of consequence predictions, causal
explanations, recommendation systems and topic-focussed exploration of
scientific literature.
- Abstract(参考訳): LLMダイアログスレッドの深層ステップバイステップ推論は,オルタナティブ(ORノード)を再帰的に探索し,詳細(ANDノード)を与えられた深さまで拡張することで自動化する。
1つの簡潔なタスク固有の開始子から始めて、これまでの深度ファーストステップを要約したプロンプトを合成することで、タスクに集中するように自動ダイアログスレッドを操縦します。
我々のアルゴリズムはHhorn Clauseインタプリタの単純な再帰的降下実装から派生しているが、LLMが訓練した自然言語推論パターンに適合するように論理エンジンを適合させる。
探索空間を制限し、答えとして返される正当化ステップの痕跡を検証するために、LLMの別のインスタンスからの基底的事実やオラクルのアドバイスと意味論的に類似している。
最後に、生成したHhorn Clauseプログラムのユニークな最小モデルが推論プロセスの結果を収集する。
応用として, 結果予測, 因果説明, 推薦システム, 話題に焦点をあてた科学文献探索の実装をスケッチする。
関連論文リスト
- RuAG: Learned-rule-augmented Generation for Large Language Models [62.64389390179651]
本稿では,大量のオフラインデータを解釈可能な一階述語論理規則に自動抽出する新しいフレームワーク,RuAGを提案する。
我々は,自然言語処理,時系列,意思決定,産業タスクなど,公共および民間の産業タスクに関する枠組みを評価する。
論文 参考訳(メタデータ) (2024-11-04T00:01:34Z) - Making Task-Oriented Dialogue Datasets More Natural by Synthetically Generating Indirect User Requests [6.33281463741573]
間接ユーザ要求(IUR)は、ヒューマン・ヒューマン・タスク指向の対話において一般的であり、聞き手からの世界的知識と実践的推論を必要とする。
大きな言語モデル(LLM)はこれらの要求を効果的に処理できるが、仮想アシスタントにデプロイされる小さなモデルはリソースの制約のためにしばしば苦労する。
論文 参考訳(メタデータ) (2024-06-12T01:18:04Z) - From Words to Actions: Unveiling the Theoretical Underpinnings of LLM-Driven Autonomous Systems [59.40480894948944]
大規模言語モデル (LLM) は、物理世界の意思決定問題を解くことができる。
このモデルの下で、LLM Plannerは、プロンプトを介して言語ベースのサブゴールを反復的に生成することにより、部分的に観測可能なマルコフ決定プロセス(POMDP)をナビゲートする。
我々は,事前学習したLLMプランナーが,文脈内学習を通じてベイズ的集計模倣学習(BAIL)を効果的に行うことを証明した。
論文 参考訳(メタデータ) (2024-05-30T09:42:54Z) - HYSYNTH: Context-Free LLM Approximation for Guiding Program Synthesis [25.260063704712458]
大規模言語モデル(LLM)は、よく知らないDSLで完全に正しいプログラムを生成するのに失敗する。
これらの制約により、与えられたタスクに対する LLM 補完をタスク固有の文脈自由代用モデル学習に使用するハイブリッドアプローチを導入する。
このハイブリッドなアプローチを3つの領域で評価し、既存のプログラムシンセサイザーと同様に、無誘導探索とLCMからの直接サンプリングの両方より優れていることを示す。
論文 参考訳(メタデータ) (2024-05-24T18:45:51Z) - Natural Language as Policies: Reasoning for Coordinate-Level Embodied Control with LLMs [7.746160514029531]
ロボットのタスク計画問題に対処するLLMによる実験結果を示す。
提案手法はタスクとシーンオブジェクトのテキスト記述を取得し,自然言語推論によるタスクプランニングを定式化する。
提案手法はマルチモーダル・プロンプト・シミュレーション・ベンチマークを用いて評価する。
論文 参考訳(メタデータ) (2024-03-20T17:58:12Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。