論文の概要: Towards Better Understanding of Program-of-Thought Reasoning in Cross-Lingual and Multilingual Environments
- arxiv url: http://arxiv.org/abs/2502.17956v1
- Date: Tue, 25 Feb 2025 08:27:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 18:41:00.345881
- Title: Towards Better Understanding of Program-of-Thought Reasoning in Cross-Lingual and Multilingual Environments
- Title(参考訳): 言語横断環境と多言語環境におけるプログラム・オブ・ソート推論の理解向上に向けて
- Authors: Patomporn Payoungkhamdee, Pume Tuchinda, Jinheon Baek, Samuel Cahyawijaya, Can Udomcharoenchaikit, Potsawee Manakul, Peerat Limkonchotiwat, Ekapol Chuangsuwanich, Sarana Nutanong,
- Abstract要約: 大規模言語モデル(LLM)には多段階推論が不可欠だが、多言語のパフォーマンスは依然として難しい。
Chain-of-Thought(CoT)は推論を改善するが、推論と実行の絡み合いのために英語以外の言語と競合する。
本稿では,PoT(Program-of-Thought)を推し進める枠組みを提案する。
- 参考スコア(独自算出の注目度): 38.191619790402655
- License:
- Abstract: Multi-step reasoning is essential for large language models (LLMs), yet multilingual performance remains challenging. While Chain-of-Thought (CoT) prompting improves reasoning, it struggles with non-English languages due to the entanglement of reasoning and execution. Program-of-Thought (PoT) prompting separates reasoning from execution, offering a promising alternative but shifting the challenge to generating programs from non-English questions. We propose a framework to evaluate PoT by separating multilingual reasoning from code execution to examine (i) the impact of fine-tuning on question-reasoning alignment and (ii) how reasoning quality affects answer correctness. Our findings demonstrate that PoT fine-tuning substantially enhances multilingual reasoning, outperforming CoT fine-tuned models. We further demonstrate a strong correlation between reasoning quality (measured through code quality) and answer accuracy, highlighting its potential as a test-time performance improvement heuristic.
- Abstract(参考訳): 大規模言語モデル(LLM)には多段階推論が不可欠だが、多言語のパフォーマンスは依然として難しい。
Chain-of-Thought(CoT)は推論を改善するが、推論と実行の絡み合いのために英語以外の言語と競合する。
Program-of-Thought (PoT)は、実行から推論を分離し、有望な代替手段を提供するが、英語以外の質問からプログラムを生成するようチャレンジをシフトさせる。
コード実行から多言語推論を分離してPoTを評価するフレームワークを提案する。
(i)微調整が質問のアライメントとアライメントに及ぼす影響
二 推論品質が回答の正しさにどう影響するか。
以上の結果から,PoT微調整により多言語推論が大幅に向上し,CoT微調整モデルよりも優れた結果が得られた。
さらに、推論品質(コード品質によって測定される)と解答精度の相関性を強く示し、テスト時間性能改善ヒューリスティックとしての可能性を強調した。
関連論文リスト
- Demystifying Multilingual Chain-of-Thought in Process Reward Modeling [71.12193680015622]
プロセス報酬モデル(PRM)を多言語設定に拡張するという課題に対処する。
我々は、7つの言語にまたがるデータセット上で多言語PRMを訓練し、それを英語から翻訳する。
本結果は,学習言語数と英語データ量の両方に対する多言語PRMの感度を強調した。
論文 参考訳(メタデータ) (2025-02-18T09:11:44Z) - AdaCoT: Rethinking Cross-Lingual Factual Reasoning through Adaptive Chain-of-Thought [19.692743208974296]
我々は多言語推論を強化するフレームワークであるAdaCoT(Adaptive Chain-of-Thought)を紹介する。
AdaCoTは、ターゲット言語応答を生成する前に、中間的な"思考言語"を通して思考プロセスを動的にルーティングする。
論文 参考訳(メタデータ) (2025-01-27T15:48:57Z) - Reasoning Elicitation in Language Models via Counterfactual Feedback [17.908819732623716]
事実と反事実の質問において精度のバランスをとる新しい指標を導出する。
本稿では,より優れた推論機構を実現するための微調整手法を提案する。
各種現実シナリオにおける微調整言語モデルの性能評価を行った。
論文 参考訳(メタデータ) (2024-10-02T15:33:30Z) - The Power of Question Translation Training in Multilingual Reasoning: Broadened Scope and Deepened Insights [108.40766216456413]
大規模言語モデルの英語と非英語のパフォーマンスのギャップを埋めるための質問アライメントフレームワークを提案する。
実験結果から、さまざまな推論シナリオ、モデルファミリー、サイズにわたって、多言語のパフォーマンスを向上できることが示された。
我々は、表現空間、生成された応答とデータスケールを分析し、質問翻訳訓練がLLM内の言語アライメントをどのように強化するかを明らかにする。
論文 参考訳(メタデータ) (2024-05-02T14:49:50Z) - Mitigating Misleading Chain-of-Thought Reasoning with Selective Filtering [59.495717939664246]
大規模言語モデルは、複雑な問題を解くためにチェーン・オブ・ソート(CoT)推論技術を活用することで、顕著な能力を示した。
本稿では,選択フィルタリング推論(SelF-Reasoner)と呼ばれる新しい手法を提案する。
SelF-ReasonerはScienceQA、ECQA、LastLetterタスクに対して、微調整されたT5ベースラインを一貫して改善する。
論文 参考訳(メタデータ) (2024-03-28T06:28:35Z) - MAPO: Advancing Multilingual Reasoning through Multilingual Alignment-as-Preference Optimization [65.31411639849516]
本稿では,他言語の推論過程を支配言語と整合させるために,MAPO(Multilingual-Alignment-as-Preference Optimization)フレームワークを提案する。
具体的には,非支配言語と支配言語における回答の整合性について,既成の翻訳モデルを用いて検討する。
実験により、MAPOは様々なモデルの多言語推論において、安定して大幅な改善を達成できることが示された。
論文 参考訳(メタデータ) (2024-01-12T18:03:54Z) - Empowering Multi-step Reasoning across Languages via Tree-of-Thoughts [1.8175282137722093]
CoT(Chain-of-Thought)メソッドは、LLM(Large Language Models)によって複雑なタスクをステップバイステップで解決する。
事前学習データの分布の不均衡のため、多段階推論を実現する能力は英語に限られている。
言語間の相互言語CoT推論を整合させる手法としてクロス言語木(Cross-ToT)を提案する。
論文 参考訳(メタデータ) (2023-11-14T11:49:43Z) - Cross-lingual Prompting: Improving Zero-shot Chain-of-Thought Reasoning
across Languages [46.496557448392494]
チェーン・オブ・シント(CoT)は、推論パスを明示的に生成するためにモデルを引き出すことができる。
既存のゼロショットプロンプト技術は単一の言語に限られている。
言語間のゼロショットCoT推論を改善することを目的とした言語間プロンプト(CLP)を導入する。
論文 参考訳(メタデータ) (2023-10-23T10:56:03Z) - Self-Polish: Enhance Reasoning in Large Language Models via Problem Refinement [50.62461749446111]
Self-Polish(SP)は、与えられた問題を徐々に洗練し、より理解しやすく解けるように誘導することによって、モデルの推論を促進する新しい方法である。
SPは、CoTのような答え/推論サイドの他のすべてのプロンプトメソッドであり、最先端の技術とのシームレスな統合を可能にし、さらなる改善を可能にします。
論文 参考訳(メタデータ) (2023-05-23T19:58:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。