論文の概要: Full Automation of Goal-driven LLM Dialog Threads with And-Or Recursors
and Refiner Oracles
- arxiv url: http://arxiv.org/abs/2306.14077v1
- Date: Sat, 24 Jun 2023 23:33:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 17:01:35.892718
- Title: Full Automation of Goal-driven LLM Dialog Threads with And-Or Recursors
and Refiner Oracles
- Title(参考訳): And-Or RecursorとRefiner Oracleによるゴール駆動LDMダイアログスレッドの完全自動化
- Authors: Paul Tarau
- Abstract要約: 我々は,LLMダイアログスレッドのステップバイステップ推論を,選択肢(ORノード)を探索し,詳細(ANDノード)を与えられた深さまで拡張することで自動化する。
本アルゴリズムは,Hhorn Clauseインタプリタの簡単な再帰実装から導かれる。
応用として、結果予測、因果的説明、推薦システム、科学文献の話題に焦点をあてた探索の実装をスケッチする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We automate deep step-by step reasoning in an LLM dialog thread by
recursively exploring alternatives (OR-nodes) and expanding details (AND-nodes)
up to a given depth. Starting from a single succinct task-specific initiator we
steer the automated dialog thread to stay focussed on the task by synthesizing
a prompt that summarizes the depth-first steps taken so far.
Our algorithm is derived from a simple recursive descent implementation of a
Horn Clause interpreter, except that we accommodate our logic engine to fit the
natural language reasoning patterns LLMs have been trained on. Semantic
similarity to ground-truth facts or oracle advice from another LLM instance is
used to restrict the search space and validate the traces of justification
steps returned as answers. At the end, the unique minimal model of a generated
Horn Clause program collects the results of the reasoning process.
As applications, we sketch implementations of consequence predictions, causal
explanations, recommendation systems and topic-focussed exploration of
scientific literature.
- Abstract(参考訳): LLMダイアログスレッドの深層ステップバイステップ推論は,オルタナティブ(ORノード)を再帰的に探索し,詳細(ANDノード)を与えられた深さまで拡張することで自動化する。
1つの簡潔なタスク固有の開始子から始めて、これまでの深度ファーストステップを要約したプロンプトを合成することで、タスクに集中するように自動ダイアログスレッドを操縦します。
我々のアルゴリズムはHhorn Clauseインタプリタの単純な再帰的降下実装から派生しているが、LLMが訓練した自然言語推論パターンに適合するように論理エンジンを適合させる。
探索空間を制限し、答えとして返される正当化ステップの痕跡を検証するために、LLMの別のインスタンスからの基底的事実やオラクルのアドバイスと意味論的に類似している。
最後に、生成したHhorn Clauseプログラムのユニークな最小モデルが推論プロセスの結果を収集する。
応用として, 結果予測, 因果説明, 推薦システム, 話題に焦点をあてた科学文献探索の実装をスケッチする。
関連論文リスト
- LLM-AutoDiff: Auto-Differentiate Any LLM Workflow [58.56731133392544]
自動プロンプト工学(APE)のための新しいフレームワーク LLM-AutoDiff について紹介する。
LLMs-AutoDiffは、各テキスト入力をトレーニング可能なパラメータとして扱い、フリーズした後方エンジンを使用して、テキスト勾配に対するフィードバック・アキンを生成する。
精度とトレーニングコストの両方において、既存のテキスト勾配ベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-01-28T03:18:48Z) - RAG-Star: Enhancing Deliberative Reasoning with Retrieval Augmented Verification and Refinement [85.08223786819532]
既存の大規模言語モデル(LLM)は、例外的な問題解決能力を示すが、複雑な推論タスクに苦労する可能性がある。
検索情報を統合した新しいRAG手法である textbfRAG-Star を提案する。
Llama-3.1-8B-Instruct と GPT-4o を併用した実験により,RAG-Star は従来のRAG と推理法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-12-17T13:05:36Z) - RuAG: Learned-rule-augmented Generation for Large Language Models [62.64389390179651]
本稿では,大量のオフラインデータを解釈可能な一階述語論理規則に自動抽出する新しいフレームワーク,RuAGを提案する。
我々は,自然言語処理,時系列,意思決定,産業タスクなど,公共および民間の産業タスクに関する枠組みを評価する。
論文 参考訳(メタデータ) (2024-11-04T00:01:34Z) - RePrompt: Planning by Automatic Prompt Engineering for Large Language Models Agents [27.807695570974644]
LLMエージェントに与えられたプロンプトのステップバイステップ命令を最適化するために、段階的な降下を行う新しい方法、textscRePromptを提案する。
中間的なフィードバックを活用することで、 textscRePromptは最終的なソリューションチェッカーを必要とせずにプロンプトを最適化できる。
論文 参考訳(メタデータ) (2024-06-17T01:23:11Z) - HYSYNTH: Context-Free LLM Approximation for Guiding Program Synthesis [25.260063704712458]
大規模言語モデル(LLM)は、よく知らないDSLで完全に正しいプログラムを生成するのに失敗する。
これらの制約により、与えられたタスクに対する LLM 補完をタスク固有の文脈自由代用モデル学習に使用するハイブリッドアプローチを導入する。
このハイブリッドなアプローチを3つの領域で評価し、既存のプログラムシンセサイザーと同様に、無誘導探索とLCMからの直接サンプリングの両方より優れていることを示す。
論文 参考訳(メタデータ) (2024-05-24T18:45:51Z) - Natural Language as Policies: Reasoning for Coordinate-Level Embodied Control with LLMs [7.746160514029531]
ロボットのタスク計画問題に対処するLLMによる実験結果を示す。
提案手法はタスクとシーンオブジェクトのテキスト記述を取得し,自然言語推論によるタスクプランニングを定式化する。
提案手法はマルチモーダル・プロンプト・シミュレーション・ベンチマークを用いて評価する。
論文 参考訳(メタデータ) (2024-03-20T17:58:12Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。