論文の概要: Prompting Large Language Models With the Socratic Method
- arxiv url: http://arxiv.org/abs/2303.08769v2
- Date: Thu, 16 Mar 2023 01:19:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-19 11:40:05.802297
- Title: Prompting Large Language Models With the Socratic Method
- Title(参考訳): ソクラテス的手法による大規模言語モデルの提案
- Authors: Edward Y. Chang
- Abstract要約: 本稿では,GPT-3と相互作用するプロンプトテンプレートの開発において,ソクラティック手法を用いた体系的アプローチを提案する。
様々な方法が検討され、創造性や想像力を育みながら、正確な答えと正当化をもたらすものが特定される。
対話開始前にタスクの目標とユーザ意図がChatGPTを介してGPT-3に伝達されると、大きな言語モデルがインテントで表現された外部コンテキストに接続し、より効果的に実行する、という興味深い観察がなされた。
- 参考スコア(独自算出の注目度): 7.673853485227739
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a systematic approach to using the Socratic method in
developing prompt templates that effectively interact with large language
models, including GPT-3. Various methods are examined, and those that yield
precise answers and justifications while fostering creativity and imagination
to enhance creative writing are identified. Techniques such as {\em
definition}, {\em elenchus}, {\em dialectic}, {\em maieutics}, {\em
generalization}, and {\em counterfactual reasoning} are discussed for their
application in engineering prompt templates and their connections to inductive,
deductive, and abductive reasoning. Through examples, the effectiveness of
these dialogue and reasoning methods is demonstrated. An interesting
observation is made that when the task's goal and user intent are conveyed to
GPT-3 via ChatGPT before the start of a dialogue, the large language model
seems to connect to the external context expressed in the intent and perform
more effectively.
- Abstract(参考訳): 本稿では,GPT-3を含む大規模言語モデルと効果的に相互作用するプロンプトテンプレートの開発において,ソクラティック手法を用いた体系的アプローチを提案する。
様々な方法が検討され、創造性や創造性を高めるための想像力を高めながら、正確な答えと正当性をもたらすものを特定する。
エンジニアリング・プロンプト・テンプレートや、帰納的・帰納的・帰納的・帰納的推論へのそれらの関係を応用するために、 {\em definition}, {\em elenchus}, {\em dialectic}, {\em maieutics}, {\em generalization}, {\em counterfactual reasoning} などのテクニックが議論されている。
実例を通して,これらの対話と推論手法の有効性を示す。
対話開始前にタスクの目標とユーザ意図がChatGPTを介してGPT-3に伝達されると、大きな言語モデルがインテントで表現された外部コンテキストに接続し、より効果的に実行する、という興味深い観察がなされた。
関連論文リスト
- KPT: Keyword-guided Pre-training for Grounded Dialog Generation [82.68787152707455]
KPT(Guided Pre-Training)は,グラウンドドダイアログ生成のための自己教師付き事前学習手法である。
具体的には、事前訓練された言語モデルを用いて、ダイアログ内の最も不確実なトークンをキーワードとして抽出する。
我々は,対話行為,知識グラフ,ペルソナ記述,ウィキペディアの文節など,数発の知識ベース生成タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-12-04T04:05:01Z) - Controllable Dialogue Simulation with In-Context Learning [39.04491297557292]
そこで本研究では,言語モデルに基づく対話シミュレーション手法を提案する。
textscDialogicは、デモ用のテキスト中の例を自動的に選択し、GPT-3に新しい対話とアノテーションを制御可能な方法で生成するよう促す。
論文 参考訳(メタデータ) (2022-10-09T06:32:58Z) - VD-PCR: Improving Visual Dialog with Pronoun Coreference Resolution [79.05412803762528]
ビジュアルダイアログタスクでは、視覚環境に基づいたマルチラウンドダイアログにおいて、AIエージェントが人間と対話する必要がある。
本稿では,Pronoun Coreference Resolution を用いたビジュアルダイアログ理解のための新しいフレームワーク VD-PCR を提案する。
提案した暗黙的および明示的手法により、VD-PCRはVisDialデータセット上で最先端の実験結果を得る。
論文 参考訳(メタデータ) (2022-05-29T15:29:50Z) - Towards Large-Scale Interpretable Knowledge Graph Reasoning for Dialogue
Systems [109.16553492049441]
よりスケーラブルで一般化可能な対話システムに知識推論機能を組み込む新しい手法を提案する。
我々の知識を最大限に活用するために、変圧器モデルが微分可能な知識グラフを解析して応答を生成するのは、これが初めてである。
論文 参考訳(メタデータ) (2022-03-20T17:51:49Z) - Language Model as an Annotator: Exploring DialoGPT for Dialogue
Summarization [29.887562761942114]
本稿では,対話応答生成のための事前学習モデルであるDialoGPTを,教師なし対話アノテータとして開発する方法を示す。
ダイアロGPTを用いて、2つの対話要約データセット(SAMSumとAMI)に3種類の特徴をラベル付けし、事前学習モデルと非訓練モデルを用いて要約する。
論文 参考訳(メタデータ) (2021-05-26T13:50:13Z) - Retrieval-Free Knowledge-Grounded Dialogue Response Generation with
Adapters [52.725200145600624]
軽量アダプタで事前学習した言語モデルに事前知識を注入し、検索プロセスをバイパスする KnowExpert を提案する。
実験結果から,KnowExpertは検索ベースラインと相容れない性能を示した。
論文 参考訳(メタデータ) (2021-05-13T12:33:23Z) - Natural Language Understanding for Argumentative Dialogue Systems in the
Opinion Building Domain [6.951113351928047]
本稿では,情報検索領域における議論的対話システムの枠組みを提案する。
提案手法は,複数のユーザの意図を識別し,ユーザが自然言語で参照するシステム引数を識別する。
論文 参考訳(メタデータ) (2021-03-03T21:17:24Z) - Learning Reasoning Paths over Semantic Graphs for Video-grounded
Dialogues [73.04906599884868]
対話文脈(PDC)における推論経路の新しい枠組みを提案する。
PDCモデルは、各質問と回答の語彙成分に基づいて構築されたセマンティックグラフを通じて、対話間の情報フローを発見する。
本モデルでは,この推論経路を通じて視覚情報とテキスト情報を逐次的に処理し,提案する特徴を用いて回答を生成する。
論文 参考訳(メタデータ) (2021-03-01T07:39:26Z) - Prompt Programming for Large Language Models: Beyond the Few-Shot
Paradigm [0.0]
自然言語のレンズを通してプロンプトを考えることの有用性を強調しながら,プロンプトプログラミングの手法について論じる。
モデルに種を付けて、さまざまなタスクのための独自の自然言語プロンプトを生成するメタプロンプトのアイデアを紹介します。
論文 参考訳(メタデータ) (2021-02-15T05:27:55Z) - Knowledge Injection into Dialogue Generation via Language Models [85.65843021510521]
InjKは対話生成モデルに知識を注入するための2段階のアプローチである。
まず、大規模言語モデルをトレーニングし、テキスト知識としてクエリする。
次に、対話生成モデルを作成し、テキスト知識と対応する応答を逐次生成する。
論文 参考訳(メタデータ) (2020-04-30T07:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。