論文の概要: The Art of SOCRATIC QUESTIONING: Zero-shot Multimodal Reasoning with
Recursive Thinking and Self-Questioning
- arxiv url: http://arxiv.org/abs/2305.14999v1
- Date: Wed, 24 May 2023 10:36:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 17:06:22.701342
- Title: The Art of SOCRATIC QUESTIONING: Zero-shot Multimodal Reasoning with
Recursive Thinking and Self-Questioning
- Title(参考訳): SOCRATIC QUESTIONINGの技法:再帰的思考と自己探究によるゼロショットマルチモーダル推論
- Authors: Jingyuan Qi, Zhiyang Xu, Ying Shen, Minqian Liu, Di Jin, Qifan Wang,
Lifu Huang
- Abstract要約: CoT(Chain-of-Thought prompting)は、大規模な言語モデルにおいて、問題を分解し、ステップバイステップでそれに取り組むことで、複雑な推論問題を解決する。
この思考過程は、人間の複雑な問題へのアプローチとは異なる。
本稿では,自己問合せおよび再帰的思考過程をシミュレートする分散コンカレント・ファッション・アルゴリズムであるソクラティック・クセリングを提案する。
- 参考スコア(独自算出の注目度): 44.48247783914528
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chain-of-Thought prompting (CoT) enables large-scale language models to solve
complex reasoning problems by decomposing the problem and tackling it
step-by-step. However, Chain-of-Thought is a greedy thinking process that
requires the language model to come up with a starting point and generate the
next step solely based on previous steps. This thinking process is different
from how humans approach a complex problem e.g., we proactively raise
sub-problems related to the original problem and recursively answer them. In
this work, we propose Socratic Questioning, a divide-and-conquer fashion
algorithm that simulates the self-questioning and recursive thinking process.
Socratic Questioning is driven by a Self-Questioning module that employs a
large-scale language model to propose sub-problems related to the original
problem as intermediate steps and Socratic Questioning recursively backtracks
and answers the sub-problems until reaches the original problem. We apply our
proposed algorithm to the visual question-answering task as a case study and by
evaluating it on three public benchmark datasets, we observe a significant
performance improvement over all baselines on (almost) all datasets. In
addition, the qualitative analysis clearly demonstrates the intermediate
thinking steps elicited by Socratic Questioning are similar to the human's
recursively thinking process of a complex reasoning problem.
- Abstract(参考訳): chain-of-thought prompting(cot)は,問題を分解してステップバイステップで取り組むことで,複雑な推論問題を大規模言語モデルで解決可能にする。
しかし、Chain-of-Thoughtは、言語モデルに出発点を導き、以前のステップのみに基づいて次のステップを生成することを要求する、欲張りの思考プロセスである。
この思考過程は、人間が複雑な問題にアプローチする方法とは異なる。例えば、私たちは、元の問題に関連するサブプロイムを積極的に引き上げ、再帰的に答える。
本研究では,自己問合せ・再帰的思考過程をシミュレートする,分割・探索型ファッションアルゴリズムであるsocratic questioningを提案する。
ソクラティック質問は、大規模な言語モデルを用いて、元の問題に関連するサブプロブレムを中間段階として提案するセルフクエストモジュールと、ソクラティック質問は再帰的にバックトラックを作成し、元の問題に到達するまでサブプロブレムに答える。
提案アルゴリズムを視覚的質問応答タスクに適用し,それを3つの公開ベンチマークデータセット上で評価することにより,(ほぼ)全データセットのベースラインに対する大幅な性能向上を観察する。
さらに, 質的分析により, ソクラテス的質問によって引き起こされる中間的思考過程が, 複雑な推論問題の帰納的思考過程とよく似ていることを示す。
関連論文リスト
- Supervised Chain of Thought [5.389461633686935]
Chain of Thought (CoT)は複雑な推論タスクを解決するための有望なアプローチを提供する。
ワンプロンプト・フォー・オールアプローチは、正しい推論ステップを生成するためにモデルに重大な課題をもたらす。
タスク固有の監督が、プロンプト空間を正確にナビゲートし、最適な性能を達成するためにいかに重要であるかを示す。
論文 参考訳(メタデータ) (2024-10-18T06:25:27Z) - Advancing Algorithmic Approaches to Probabilistic Argumentation under the Constellation Approach [0.0]
完全拡張である引数の集合の確率を計算する複雑なタスクのアルゴリズムを開発する。
実験的評価は我々のアプローチの可能性を示唆している。
論文 参考訳(メタデータ) (2024-07-06T12:08:38Z) - Chain of Thoughtlessness? An Analysis of CoT in Planning [17.329365493094542]
推論問題におけるLLM(Large Language Model)のパフォーマンスは通常、分布から一般化しない。
本稿では,古典的計画領域であるBlocksworldの問題に対する思考連鎖のケーススタディを示す。
それらのプロンプトが問題クラスに特有である場合、一連の思考プロンプトから有意義なパフォーマンス改善が得られます。
論文 参考訳(メタデータ) (2024-05-08T02:48:28Z) - Boosting of Thoughts: Trial-and-Error Problem Solving with Large
Language Models [48.43678591317425]
Boosting of Thoughts (BoT)は、大規模言語モデルによる問題解決のための自動プロンプトフレームワークである。
我々は,BoTが他の先進的なプロンプト手法よりも高い,あるいは同等の問題解決率を達成することを示す。
論文 参考訳(メタデータ) (2024-02-17T00:13:36Z) - Recursion of Thought: A Divide-and-Conquer Approach to Multi-Context
Reasoning with Language Models [58.41943058963672]
我々はRecursion of Thought (RoT)と呼ばれる新しい推論フレームワークを提案する。
RoTはいくつかの特別なトークンを導入し、モデルが出力してコンテキスト関連の操作をトリガーする。
GPT-3を含む複数のアーキテクチャの実験により、RoTは問題を解くためにLMの推論能力を劇的に改善した。
論文 参考訳(メタデータ) (2023-06-12T06:34:16Z) - Self-Polish: Enhance Reasoning in Large Language Models via Problem Refinement [50.62461749446111]
Self-Polish(SP)は、与えられた問題を徐々に洗練し、より理解しやすく解けるように誘導することによって、モデルの推論を促進する新しい方法である。
SPは、CoTのような答え/推論サイドの他のすべてのプロンプトメソッドであり、最先端の技術とのシームレスな統合を可能にし、さらなる改善を可能にします。
論文 参考訳(メタデータ) (2023-05-23T19:58:30Z) - Chaining Simultaneous Thoughts for Numerical Reasoning [92.2007997126144]
テキストによる数値推論は、AIシステムにとって不可欠なスキルであるべきです。
これまでの研究は方程式の構造をモデル化することに集中し、様々な構造化デコーダを提案してきた。
我々は、有向非巡回グラフを用いてステップを推論する数値推論器CANTORを提案する。
論文 参考訳(メタデータ) (2022-11-29T18:52:06Z) - End-to-end Algorithm Synthesis with Recurrent Networks: Logical
Extrapolation Without Overthinking [52.05847268235338]
機械学習システムが問題を過度に考えずに論理的外挿を行う方法を示す。
本稿では,問題インスタンスの明示的なコピーをメモリに保持して,それを忘れないようにするリコールアーキテクチャを提案する。
また、モデルが数に固有の行動を学ぶのを防ぎ、無期限に繰り返される行動を学ぶためにモデルをプッシュするプログレッシブトレーニングルーチンも採用しています。
論文 参考訳(メタデータ) (2022-02-11T18:43:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。