論文の概要: Meta-Reasoning: Semantics-Symbol Deconstruction For Large Language
Models
- arxiv url: http://arxiv.org/abs/2306.17820v2
- Date: Thu, 2 Nov 2023 16:38:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 17:07:22.982986
- Title: Meta-Reasoning: Semantics-Symbol Deconstruction For Large Language
Models
- Title(参考訳): メタ推論:大規模言語モデルのための意味論的シンボリックデコンストラクション
- Authors: Yiming Wang, Zhuosheng Zhang, Rui Wang
- Abstract要約: 本稿では,シンボル手法の現実的な適用性と柔軟性を高めるメタ推論を提案する。
メタ推論は、6つの算術的および記号的推論タスクにおいて、文脈内学習効率の向上、推論精度の向上、出力安定性を実現する。
- 参考スコア(独自算出の注目度): 25.32467655785615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural-symbolic methods have shown their effectiveness in enhancing the
reasoning abilities of large language models (LLMs). However, existing methods
primarily rely on mapping natural languages to more syntactically complete
formal languages (e.g., Python and SQL). Those approaches necessitate that
reasoning tasks be convertible into programs, which cater more to the computer
execution mindset and deviate from human reasoning habits. To expand the
real-world applicability and flexibility of symbolic methods, we propose
Meta-Reasoning from the scope of linguistics itself. This method empowers LLMs
to deconstruct questions and effectively capture more generalized knowledge
autonomously. We find that Meta-Reasoning achieves improved in-context learning
efficiency, reasoning accuracy, and output stability in six arithmetic and
symbolic reasoning tasks. In particular, when applied to symbolic reasoning
tasks such as Tracking Shuffled Objects, GPT-3 (text-davinci-002) surpasses the
few-shot Chain-of-Thought prompting approach (+37.7%), with 99% accuracy after
a single demonstration of Meta-Reasoning.
- Abstract(参考訳): ニューラルシンボリックな手法は、大言語モデル(llm)の推論能力を高める効果を示している。
しかし、既存のメソッドは主に自然言語をより構文的に完全な形式言語(例えばpythonとsql)にマッピングすることに依存している。
これらのアプローチは、推論タスクがプログラムに変換可能であることを必要としており、コンピュータの実行マインドセットに適合し、人間の推論習慣から逸脱する。
記号的手法の現実的な適用性と柔軟性を拡大するために,メタ推論を言語学自体から提案する。
この方法により、LSMは質問を分解し、より一般化された知識を自律的に捉えることができる。
メタ推論は、6つの算術および記号的推論タスクにおいて、文脈内学習効率、推論精度、出力安定性の向上を実現する。
特に、追跡シャッフルオブジェクトのようなシンボリック推論タスクに適用した場合、GPT-3 (text-davinci-002) はメタ推論の1回のデモンストレーションで99%の精度で数発のChain-of-Thoughtプロンプトアプローチ (+37.7%) を超える。
関連論文リスト
- LogicBench: Towards Systematic Evaluation of Logical Reasoning Ability of Large Language Models [52.03659714625452]
最近開発された大規模言語モデル (LLM) は、幅広い言語理解タスクにおいて非常によく機能することが示されている。
しかし、それらは自然言語に対して本当に「理性」があるのだろうか?
この疑問は研究の注目を集めており、コモンセンス、数値、定性的など多くの推論技術が研究されている。
論文 参考訳(メタデータ) (2024-04-23T21:08:49Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - Enhancing Zero-Shot Chain-of-Thought Reasoning in Large Language Models through Logic [19.476840373850653]
大規模言語モデルは、その推論手順が論理原理に制約されないため、幻覚を示す。
記号論理に根ざした原理を活用する自己改善促進フレームワークであるLoT(Logical Thoughts)を提案する。
算術,コモンセンス,記号,因果推論,社会問題など多種多様な領域における言語課題に対する実験的評価は,論理学による推論の強化の有効性を実証する。
論文 参考訳(メタデータ) (2023-09-23T11:21:12Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - Improved Logical Reasoning of Language Models via Differentiable
Symbolic Programming [12.984852480664378]
事前訓練された大規模言語モデル(LM)は、スケールと構成性の進歩にもかかわらず、論理的推論を確実に行うのに苦労する。
本稿では,DSR-LMを提案する。DSR-LMは,事前学習したLMが事実知識の認識を制御し,帰納的推論を行う,微分可能なシンボリック推論フレームワークである。
論文 参考訳(メタデータ) (2023-05-05T07:24:46Z) - Evaluating statistical language models as pragmatic reasoners [39.72348730045737]
我々は,語学的な発話の意味を推測するために,大規模言語モデルの能力を評価する。
LLMは、複数の複雑な実用的発話の解釈に対して、文脈的、人間的な分布を導出することができる。
結果は,統計的言語モデルの推論能力と,実践的・意味論的解析への応用について報告する。
論文 参考訳(メタデータ) (2023-05-01T18:22:10Z) - ChatABL: Abductive Learning via Natural Language Interaction with
ChatGPT [72.83383437501577]
大規模言語モデル(LLM)は、最近数学的な能力において大きな可能性を証明している。
LLMは現在、認識、言語理解、推論能力のブリッジングに困難を抱えている。
本稿では, LLMを帰納学習フレームワークに統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-21T16:23:47Z) - Learning to refer informatively by amortizing pragmatic reasoning [35.71540493379324]
我々は、話者が時間とともに合理的な音声行為のコストを減らそうとするアイデアを探求する。
我々のアモータライズされたモデルは、様々な文脈で効果的かつ簡潔な言語を迅速に生成できることがわかりました。
論文 参考訳(メタデータ) (2020-05-31T02:52:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。