論文の概要: Full Automation of Goal-driven LLM Dialog Threads with And-Or Recursors
and Refiner Oracles
- arxiv url: http://arxiv.org/abs/2306.14077v1
- Date: Sat, 24 Jun 2023 23:33:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 17:01:35.892718
- Title: Full Automation of Goal-driven LLM Dialog Threads with And-Or Recursors
and Refiner Oracles
- Title(参考訳): And-Or RecursorとRefiner Oracleによるゴール駆動LDMダイアログスレッドの完全自動化
- Authors: Paul Tarau
- Abstract要約: 我々は,LLMダイアログスレッドのステップバイステップ推論を,選択肢(ORノード)を探索し,詳細(ANDノード)を与えられた深さまで拡張することで自動化する。
本アルゴリズムは,Hhorn Clauseインタプリタの簡単な再帰実装から導かれる。
応用として、結果予測、因果的説明、推薦システム、科学文献の話題に焦点をあてた探索の実装をスケッチする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We automate deep step-by step reasoning in an LLM dialog thread by
recursively exploring alternatives (OR-nodes) and expanding details (AND-nodes)
up to a given depth. Starting from a single succinct task-specific initiator we
steer the automated dialog thread to stay focussed on the task by synthesizing
a prompt that summarizes the depth-first steps taken so far.
Our algorithm is derived from a simple recursive descent implementation of a
Horn Clause interpreter, except that we accommodate our logic engine to fit the
natural language reasoning patterns LLMs have been trained on. Semantic
similarity to ground-truth facts or oracle advice from another LLM instance is
used to restrict the search space and validate the traces of justification
steps returned as answers. At the end, the unique minimal model of a generated
Horn Clause program collects the results of the reasoning process.
As applications, we sketch implementations of consequence predictions, causal
explanations, recommendation systems and topic-focussed exploration of
scientific literature.
- Abstract(参考訳): LLMダイアログスレッドの深層ステップバイステップ推論は,オルタナティブ(ORノード)を再帰的に探索し,詳細(ANDノード)を与えられた深さまで拡張することで自動化する。
1つの簡潔なタスク固有の開始子から始めて、これまでの深度ファーストステップを要約したプロンプトを合成することで、タスクに集中するように自動ダイアログスレッドを操縦します。
我々のアルゴリズムはHhorn Clauseインタプリタの単純な再帰的降下実装から派生しているが、LLMが訓練した自然言語推論パターンに適合するように論理エンジンを適合させる。
探索空間を制限し、答えとして返される正当化ステップの痕跡を検証するために、LLMの別のインスタンスからの基底的事実やオラクルのアドバイスと意味論的に類似している。
最後に、生成したHhorn Clauseプログラムのユニークな最小モデルが推論プロセスの結果を収集する。
応用として, 結果予測, 因果説明, 推薦システム, 話題に焦点をあてた科学文献探索の実装をスケッチする。
関連論文リスト
- Natural Language as Policies: Reasoning for Coordinate-Level Embodied Control with LLMs [7.746160514029531]
ロボットのタスク計画問題に対処するLLMによる実験結果を示す。
提案手法はタスクとシーンオブジェクトのテキスト記述を取得し,自然言語推論によるタスクプランニングを定式化する。
提案手法はマルチモーダル・プロンプト・シミュレーション・ベンチマークを用いて評価する。
論文 参考訳(メタデータ) (2024-03-20T17:58:12Z) - Tree-Based Hard Attention with Self-Motivation for Large Language Models [7.2677650379517775]
大きな言語モデル(LLM)は、平易なテキストの理解と生成に優れる。
階層的なテキスト構造を扱うように特別に調整されていない。
本稿では,大規模言語モデルのための自己モチベーションを用いた木ベースハードアテンションという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-14T00:40:51Z) - Automatic Hallucination Assessment for Aligned Large Language Models via
Transferable Adversarial Attacks [98.22864957942821]
本稿では,大規模言語モデルが忠実に振る舞う既存データを適切に修正し,評価データを自動的に生成する手法を開発することを目的とする。
具体的には,LLM ベースのフレームワークである Auto Debug について述べる。
実験結果から, LLMは, インプロンプトに与えられた知識とパラメトリック知識との間に矛盾がある場合, 質問応答シナリオの2つのカテゴリに幻覚を与える可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - Leveraging Large Language Models for Exploiting ASR Uncertainty [16.740712975166407]
大規模な言語モデルは、書き起こしのための既製の音声認識システムに依存するか、あるいは内蔵された音声モダリティを備える必要がある。
我々は,高い単語誤り率でLLMの発話意図を理解する能力を制限する音声意図分類タスクに取り組む。
我々は,誤り発生1-best仮説に代えて,ASR仮説のn-bestリストでLLMを推し進めることを提案する。
論文 参考訳(メタデータ) (2023-09-09T17:02:33Z) - Allies: Prompting Large Language Model with Beam Search [107.38790111856761]
本研究では,ALIESと呼ばれる新しい手法を提案する。
入力クエリが与えられた場合、ALLIESはLLMを活用して、元のクエリに関連する新しいクエリを反復的に生成する。
元のクエリのスコープを反復的に精錬して拡張することにより、ALLIESは直接検索できない隠れた知識をキャプチャし、利用する。
論文 参考訳(メタデータ) (2023-05-24T06:16:44Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。