論文の概要: Meta-Reasoning: Semantics-Symbol Deconstruction for Large Language
Models
- arxiv url: http://arxiv.org/abs/2306.17820v3
- Date: Fri, 16 Feb 2024 12:46:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 20:41:19.647401
- Title: Meta-Reasoning: Semantics-Symbol Deconstruction for Large Language
Models
- Title(参考訳): メタ推論:大規模言語モデルのための意味論的シンボリックデコンストラクション
- Authors: Yiming Wang, Zhuosheng Zhang, Pei Zhang, Baosong Yang, Rui Wang
- Abstract要約: 実世界の象徴的手法の適用性と適応性を広げるためのメタ推論を提案する。
この方法はLLMに対して、推論に依存しない意味情報を汎用的な記号表現に分解する権限を与える。
我々は、算術、記号、論理的推論といった従来の推論タスクを含む10以上のデータセットと、理論の推論のようなより複雑な対話的推論タスクに関する広範な実験を行う。
- 参考スコア(独自算出の注目度): 36.71701231399167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural-symbolic methods have demonstrated efficiency in enhancing the
reasoning abilities of large language models (LLMs). However, existing methods
mainly rely on syntactically mapping natural languages to complete formal
languages like Python and SQL. Those methods require that reasoning tasks be
convertible into programs, which cater to the computer execution mindset and
deviate from human reasoning habits. To broaden symbolic methods' applicability
and adaptability in the real world, we propose the Meta-Reasoning from a
linguistic perspective. This method empowers LLMs to deconstruct
reasoning-independent semantic information into generic symbolic
representations, thereby efficiently capturing more generalized reasoning
knowledge. We conduct extensive experiments on more than ten datasets
encompassing conventional reasoning tasks like arithmetic, symbolic, and
logical reasoning, and the more complex interactive reasoning tasks like
theory-of-mind reasoning. Experimental results demonstrate that Meta-Reasoning
significantly enhances in-context reasoning accuracy, learning efficiency,
out-of-domain generalization, and output stability compared to the
Chain-of-Thought technique. Code and data are publicly available at
\url{https://github.com/Alsace08/Meta-Reasoning}.
- Abstract(参考訳): ニューラルシンボリックな手法は、大規模言語モデル(llm)の推論能力を高める効果を示している。
しかし、既存のメソッドは主に構文的に自然言語をpythonやsqlのような完全な形式言語にマッピングする。
これらの方法は、推論タスクをプログラムに変換し、コンピュータの実行マインドセットに適合し、人間の推論習慣から逸脱することを要求する。
実世界の象徴的手法の適用性と適応性を広げるために,メタ推論を言語学的観点から提案する。
この方法では、llmが推論非依存な意味情報を汎用的な象徴表現に分解し、より一般的な推論知識を効率的に捕捉する。
算術,記号的,論理的推論などの従来の推論タスクと,理論的推論のようなより複雑な対話的推論タスクを包含する10以上のデータセットについて,広範な実験を行った。
実験結果から,メタ推論はコンテキスト内推論精度,学習効率,領域外一般化,出力安定性をChain-of-Thought手法と比較して著しく向上することが示された。
コードとデータは \url{https://github.com/Alsace08/Meta-Reasoning} で公開されている。
関連論文リスト
- LogicBench: Towards Systematic Evaluation of Logical Reasoning Ability of Large Language Models [52.03659714625452]
最近開発された大規模言語モデル (LLM) は、幅広い言語理解タスクにおいて非常によく機能することが示されている。
しかし、それらは自然言語に対して本当に「理性」があるのだろうか?
この疑問は研究の注目を集めており、コモンセンス、数値、定性的など多くの推論技術が研究されている。
論文 参考訳(メタデータ) (2024-04-23T21:08:49Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - Enhancing Zero-Shot Chain-of-Thought Reasoning in Large Language Models through Logic [19.476840373850653]
大規模言語モデルは、その推論手順が論理原理に制約されないため、幻覚を示す。
記号論理に根ざした原理を活用する自己改善促進フレームワークであるLoT(Logical Thoughts)を提案する。
算術,コモンセンス,記号,因果推論,社会問題など多種多様な領域における言語課題に対する実験的評価は,論理学による推論の強化の有効性を実証する。
論文 参考訳(メタデータ) (2023-09-23T11:21:12Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - Improved Logical Reasoning of Language Models via Differentiable
Symbolic Programming [12.984852480664378]
事前訓練された大規模言語モデル(LM)は、スケールと構成性の進歩にもかかわらず、論理的推論を確実に行うのに苦労する。
本稿では,DSR-LMを提案する。DSR-LMは,事前学習したLMが事実知識の認識を制御し,帰納的推論を行う,微分可能なシンボリック推論フレームワークである。
論文 参考訳(メタデータ) (2023-05-05T07:24:46Z) - Evaluating statistical language models as pragmatic reasoners [39.72348730045737]
我々は,語学的な発話の意味を推測するために,大規模言語モデルの能力を評価する。
LLMは、複数の複雑な実用的発話の解釈に対して、文脈的、人間的な分布を導出することができる。
結果は,統計的言語モデルの推論能力と,実践的・意味論的解析への応用について報告する。
論文 参考訳(メタデータ) (2023-05-01T18:22:10Z) - ChatABL: Abductive Learning via Natural Language Interaction with
ChatGPT [72.83383437501577]
大規模言語モデル(LLM)は、最近数学的な能力において大きな可能性を証明している。
LLMは現在、認識、言語理解、推論能力のブリッジングに困難を抱えている。
本稿では, LLMを帰納学習フレームワークに統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-21T16:23:47Z) - Learning to refer informatively by amortizing pragmatic reasoning [35.71540493379324]
我々は、話者が時間とともに合理的な音声行為のコストを減らそうとするアイデアを探求する。
我々のアモータライズされたモデルは、様々な文脈で効果的かつ簡潔な言語を迅速に生成できることがわかりました。
論文 参考訳(メタデータ) (2020-05-31T02:52:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。