論文の概要: Empowering Multi-step Reasoning across Languages via Tree-of-Thoughts
- arxiv url: http://arxiv.org/abs/2311.08097v1
- Date: Tue, 14 Nov 2023 11:49:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 14:28:03.911841
- Title: Empowering Multi-step Reasoning across Languages via Tree-of-Thoughts
- Title(参考訳): 語義木による多段階推論の強化
- Authors: Leonardo Ranaldi, Fabio Massimo Zanzotto
- Abstract要約: CoT(Chain-of-Thought)は大規模言語モデル(LLM)の推論能力を促進する
事前学習データの分布の不均衡のため、多段階推論を実現する能力は英語に限られている。
本稿では,多言語多段階推論手法を提案する。
- 参考スコア(独自算出の注目度): 1.9217872171227137
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chain-of-Thought (CoT) prompting empowers the reasoning abilities of Large
Language Models (LLMs), eliciting them to solve complex reasoning tasks
step-by-step. However, with the success of CoT methods, the ability to deliver
multi-step reasoning remains limited to English due to the imbalance in the
distribution of the pre-training data, making the other languages a barrier.
In this work, we propose a Cross-lingual multi-step reasoning approach,
aiming to align reasoning processes across different languages. In particular,
our method, through a Self-consistent Cross-lingual prompting mechanism
inspired by the Tree-of-Thoughts approach, delivers multi-step reasoning paths
in different languages that, during the steps, lead to the final solution. Our
experimental evaluations show that our method significantly outperforms
existing prompting methods, reducing the number of interactions and achieving
state-of-the-art performance.
- Abstract(参考訳): CoT(Chain-of-Thought)は大規模言語モデル(LLM)の推論能力を促進させ、複雑な推論タスクを段階的に解決する。
しかし、CoT法の成功により、事前学習データの分布の不均衡のため、多段階推論を実現する能力は英語に限られており、他の言語は障壁となっている。
本稿では,異なる言語間の推論プロセスを整合させることを目的とした,言語間多段階推論手法を提案する。
特に,本手法は,Tree-of-Thoughtsアプローチにインスパイアされた自己一貫性のクロス言語的プロンプト機構を通じて,各言語に複数ステップの推論経路を提供し,その過程で最終解が導かれる。
実験結果から,提案手法は既存のプロンプト手法を大幅に上回り,インタラクション数を減らし,最先端の性能を実現する。
関連論文リスト
- No Train but Gain: Language Arithmetic for training-free Language Adapters enhancement [59.37775534633868]
本稿では,学習不要な後処理が可能な言語演算法を提案する。
提案手法の有効性を,MAD-Xに基づく言語間スキームの3つの下流課題に適用した。
論文 参考訳(メタデータ) (2024-04-24T08:52:40Z) - CrossIn: An Efficient Instruction Tuning Approach for Cross-Lingual Knowledge Alignment [38.35458193262633]
英語中心のモデルは、通常他の言語では準最適である。
そこで本研究では,言語間命令チューニングデータの混合合成を利用したCrossInという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-18T06:20:50Z) - How Interpretable are Reasoning Explanations from Prompting Large Language Models? [34.4659592398593]
本稿では,多面的解釈可能性の評価を包括的かつ多面的に行い,信頼度だけでなく,コモンセンス推論ベンチマークにおける堅牢性や有用性についても検討する。
さらに,複数次元の解釈可能性に70%以上の改善をもたらす自己包括的アライメント・アライメント・オブ・シント(Self-Entailment-Alignment Chain-of-Thought)と呼ばれる,単純な解釈可能性アライメント手法を導入する。
論文 参考訳(メタデータ) (2024-02-19T06:11:28Z) - Cross-lingual Prompting: Improving Zero-shot Chain-of-Thought Reasoning
across Languages [46.496557448392494]
チェーン・オブ・シント(CoT)は、推論パスを明示的に生成するためにモデルを引き出すことができる。
既存のゼロショットプロンプト技術は単一の言語に限られている。
言語間のゼロショットCoT推論を改善することを目的とした言語間プロンプト(CLP)を導入する。
論文 参考訳(メタデータ) (2023-10-23T10:56:03Z) - Self-Polish: Enhance Reasoning in Large Language Models via Problem Refinement [50.62461749446111]
Self-Polish(SP)は、与えられた問題を徐々に洗練し、より理解しやすく解けるように誘導することによって、モデルの推論を促進する新しい方法である。
SPは、CoTのような答え/推論サイドの他のすべてのプロンプトメソッドであり、最先端の技術とのシームレスな統合を可能にし、さらなる改善を可能にします。
論文 参考訳(メタデータ) (2023-05-23T19:58:30Z) - Improving Factuality and Reasoning in Language Models through Multiagent
Debate [95.10641301155232]
複数の言語モデルインスタンスが共通の最終回答に到達するために、複数のラウンドで個別の応答と推論プロセスを提案し、議論する言語応答を改善するための補完的なアプローチを提案する。
以上の結果から,本手法は様々なタスクにおける数学的・戦略的推論を著しく向上させることが示唆された。
我々のアプローチは、既存のブラックボックスモデルに直接適用され、調査するすべてのタスクに対して、同じ手順とプロンプトを使用することができる。
論文 参考訳(メタデータ) (2023-05-23T17:55:11Z) - Chain of Thought Prompting Elicits Reasoning in Large Language Models [56.811278668446825]
本稿では,コヒーレントな思考連鎖を生成する言語モデルについて考察する。
実験により、プロンプトによって思考の連鎖を誘導することで、十分な大きな言語モデルが推論タスクをよりよく実行できるようになることが示されている。
論文 参考訳(メタデータ) (2022-01-28T02:33:07Z) - It's All in the Heads: Using Attention Heads as a Baseline for
Cross-Lingual Transfer in Commonsense Reasoning [4.200736775540874]
我々は,重みを重み付けした線形分類器を特徴として訓練するコモンセンス推論への簡単なアプローチを設計する。
本手法は,近年のコモンセンス推論における教師なし・教師なしの手法と競合する。
パフォーマンスの大部分は、すべての研究対象言語に対する注目の小さなサブセットによって与えられる。
論文 参考訳(メタデータ) (2021-06-22T21:25:43Z) - Robust Cross-lingual Embeddings from Parallel Sentences [65.85468628136927]
本稿では,文整合コーパスを利用して頑健な言語間単語表現を実現するCBOW手法のバイリンガル拡張を提案する。
提案手法は,他のすべての手法と比較して,言語間文検索性能を著しく向上させる。
また、ゼロショットのクロスランガル文書分類タスクにおいて、ディープRNN法と同等性を実現する。
論文 参考訳(メタデータ) (2019-12-28T16:18:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。