論文の概要: SoT: Structured-of-Thought Prompting Guides Multilingual Reasoning in Large Language Models
- arxiv url: http://arxiv.org/abs/2510.02648v1
- Date: Fri, 03 Oct 2025 01:02:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.221307
- Title: SoT: Structured-of-Thought Prompting Guides Multilingual Reasoning in Large Language Models
- Title(参考訳): SoT:大規模言語モデルにおける多言語推論の構造化プロンプトガイド
- Authors: Rui Qi, Zhibo Man, Yufeng Chen, Fengran Mo, Jinan Xu, Kaiyu Huang,
- Abstract要約: 本論文では,多段階変換による多言語推論の性能向上を目的とした学習自由度手法を提案する。
Structured-of-Thought(SoT)メソッドは、言語固有の意味情報を言語に依存しない構造化表現に変換する。
実験により、SoTは複数の多言語推論ベンチマークにおいて、いくつかの強いベースラインよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 39.13376984049828
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent developments have enabled Large Language Models (LLMs) to engage in complex reasoning tasks through deep thinking. However, the capacity of reasoning has not been successfully transferred to non-high-resource languages due to resource constraints, which struggles with multilingual reasoning tasks. To this end, we propose Structured-of-Thought (SoT), a training-free method that improves the performance on multilingual reasoning through a multi-step transformation: Language Thinking Transformation and Structured Knowledge Transformation. The SoT method converts language-specific semantic information into language-agnostic structured representations, enabling the models to understand the query in different languages more sophisticated. Besides, SoT effectively guides LLMs toward more concentrated reasoning to maintain consistent underlying reasoning pathways when handling cross-lingual variations in expression. Experimental results demonstrate that SoT outperforms several strong baselines on multiple multilingual reasoning benchmarks when adapting to various backbones of LLMs. It can also be integrated with other training-free strategies for further improvements. Our code is available at https://github.com/Cherry-qwq/SoT.
- Abstract(参考訳): 近年の進歩により、Large Language Models (LLM) は深い思考を通して複雑な推論タスクをこなせるようになった。
しかし、多言語推論タスクに苦慮するリソース制約のため、推論の能力は、非リソース言語への転送には成功していない。
そこで本研究では,多段階の言語思考変換と構造化知識変換により,多言語推論の性能を向上させる学習自由度手法であるStructured-of-Thought(SoT)を提案する。
SoTメソッドは、言語固有の意味情報を言語に依存しない構造化表現に変換し、モデルが様々な言語のクエリをより高度に理解できるようにする。
さらに、SoTはLLMをより集中的な推論へと誘導し、表現の言語間変異を扱う際に、一貫した推論経路を維持する。
実験結果から,LLMの様々なバックボーンに適応する場合,複数の多言語推論ベンチマークにおいて,SoTはいくつかの強いベースラインよりも優れていることが示された。
さらなる改善のために、他のトレーニング不要の戦略と統合することもできる。
私たちのコードはhttps://github.com/Cherry-qwq/SoT.comで公開されています。
関連論文リスト
- The Unreasonable Effectiveness of Model Merging for Cross-Lingual Transfer in LLMs [54.59207567677249]
大規模言語モデル(LLM)は、ハイソース言語以外のタスクで依然として苦戦している。
本研究では,タスク固有のポストトレーニングデータが不足している低リソース言語への言語間移動について検討する。
論文 参考訳(メタデータ) (2025-05-23T20:28:31Z) - When Less Language is More: Language-Reasoning Disentanglement Makes LLMs Better Multilingual Reasoners [111.50503126693444]
言語固有のアブレーションは多言語推論性能を継続的に向上させることを示す。
トレーニング後のアブレーションと比較して、トレーニング不要のアブレーションは、計算オーバーヘッドを最小限に抑えながら、同等または優れた結果が得られる。
論文 参考訳(メタデータ) (2025-05-21T08:35:05Z) - AdaMCoT: Rethinking Cross-Lingual Factual Reasoning through Adaptive Multilingual Chain-of-Thought [40.16140566668239]
AdaMCOTは多言語の事実推論を強化するフレームワークである。
AdaMCOTは、ターゲット言語応答を生成する前に、中間言語における思考プロセスを動的にルーティングする。
本評価は, 事実推論品質と言語間整合性の両方において, 大幅な改善を示すものである。
論文 参考訳(メタデータ) (2025-01-27T15:48:57Z) - Understanding and Mitigating Language Confusion in LLMs [76.96033035093204]
我々は,既存の英語および多言語プロンプトを用いた15の型的多様言語の評価を行った。
Llama Instruct と Mistral のモデルでは,言語的混乱の度合いが高いことがわかった。
言語混乱は,数発のプロンプト,多言語SFT,選好調整によって部分的に緩和できることがわかった。
論文 参考訳(メタデータ) (2024-06-28T17:03:51Z) - mCoT: Multilingual Instruction Tuning for Reasoning Consistency in Language Models [21.616940026409818]
大規模言語モデル(LLM)とChain-of-Thought(CoT)は、最近、下流タスクを改善するために推論を誘発する強力なテクニックとして登場した。
オープンソース LLM を用いて,多言語間の多言語推論の整合性について検討する。
言語間の推論能力を向上させるため,多言語CoT命令チューニングを導入し,モデルの整合性を向上させる。
論文 参考訳(メタデータ) (2024-06-04T13:30:45Z) - xCoT: Cross-lingual Instruction Tuning for Cross-lingual
Chain-of-Thought Reasoning [36.34986831526529]
CoT(Chain-of-Thought)は、大規模言語モデルにおける推論を誘発する強力なテクニックとして登場した。
本稿では,ハイソース言語から低リソース言語へ知識を伝達するための言語間命令微調整フレームワーク(xCOT)を提案する。
論文 参考訳(メタデータ) (2024-01-13T10:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。