論文の概要: AutoCAP: Towards Automatic Cross-lingual Alignment Planning for Zero-shot Chain-of-Thought
- arxiv url: http://arxiv.org/abs/2406.13940v1
- Date: Thu, 20 Jun 2024 02:19:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 17:36:50.158283
- Title: AutoCAP: Towards Automatic Cross-lingual Alignment Planning for Zero-shot Chain-of-Thought
- Title(参考訳): AutoCAP:Zero-shot-of-Thoughtのための言語間自動アライメント計画に向けて
- Authors: Yongheng Zhang, Qiguang Chen, Min Li, Wanxiang Che, Libo Qin,
- Abstract要約: ゼロショット・チェーン・オブ・シントのための自動言語アライメント・プランニング(AutoCAP)を導入する。
AutoCAPのコアは,(1)LLMを適切な言語に誘導する自動言語選択法,(2)アライメントウェイトスコアを各推論経路に自動的に割り当てる自動重み付け法である。
実験によると、AutoCAPは、手作業を必要とする従来のメソッドを超越して、最先端のパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 44.14029721494791
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Cross-lingual chain-of-thought can effectively complete reasoning tasks across languages, which gains increasing attention. Recently, dominant approaches in the literature improve cross-lingual alignment capabilities by integrating reasoning knowledge from different languages. Despite achieving excellent performance, current methods still have two main challenges: (1) Manual language specification: They still highly rely on manually selecting the languages to integrate, severely affecting their generalizability; (2) Static weight allocation: Current methods simply integrate all languages equally. In fact, different language reasoning paths should have different weights to achieve better complementation and integration. Motivated by this, we introduce an Automatic Cross-lingual Alignment Planning (AutoCAP) for zero-shot chain-of-thought to address the above challenges. The core of AutoCAP consists of two components: (1) Automatic Language Selection Prompting to guide LLMs to select appropriate languages and (2) Automatic Weight Allocation Prompting to automatically allocate alignment weight scores to each reasoning path. Extensive experiments on several benchmarks reveal that AutoCAP achieves state-of-the-art performance, surpassing previous methods that required manual effort.
- Abstract(参考訳): 言語間の連鎖は、言語間の推論タスクを効果的に完了させ、注目を集める。
近年,言語間アライメントの能力向上のために,言語間アライメントが主流となっている。
1) 手動言語仕様: 統合する言語を手動で選択することに強く依存しており、その一般化可能性に深刻な影響を与えている。
実際、異なる言語推論パスは、より良い補完と統合を達成するために異なる重みを持つべきである。
このような課題に対処するために,ゼロショットチェーン・オブ・シークレットのための自動言語アライメント計画(AutoCAP)を導入する。
AutoCAPのコアは,(1)LLMを適切な言語に誘導する自動言語選択法,(2)アライメントウェイトスコアを各推論経路に自動的に割り当てる自動重み付け法である。
いくつかのベンチマークでの大規模な実験により、AutoCAPは手作業を必要とする従来の手法を超越して最先端のパフォーマンスを達成していることが明らかになった。
関連論文リスト
- AdaCoT: Rethinking Cross-Lingual Factual Reasoning through Adaptive Chain-of-Thought [19.692743208974296]
我々は多言語推論を強化するフレームワークであるAdaCoT(Adaptive Chain-of-Thought)を紹介する。
AdaCoTは、ターゲット言語応答を生成する前に、中間的な"思考言語"を通して思考プロセスを動的にルーティングする。
論文 参考訳(メタデータ) (2025-01-27T15:48:57Z) - Enhancing Multilingual ASR for Unseen Languages via Language Embedding Modeling [50.62091603179394]
最も先進的なASRモデルの1つであるWhisperは99の言語を効果的に扱う。
しかし、ウィスパーは未確認の言語と戦っているが、それらは事前訓練には含まれていない。
本研究では,これらの関係を利用して未知言語上でのASR性能を向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-12-21T04:05:43Z) - Cross-lingual Prompting: Improving Zero-shot Chain-of-Thought Reasoning
across Languages [46.496557448392494]
チェーン・オブ・シント(CoT)は、推論パスを明示的に生成するためにモデルを引き出すことができる。
既存のゼロショットプロンプト技術は単一の言語に限られている。
言語間のゼロショットCoT推論を改善することを目的とした言語間プロンプト(CLP)を導入する。
論文 参考訳(メタデータ) (2023-10-23T10:56:03Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - Efficiently Aligned Cross-Lingual Transfer Learning for Conversational
Tasks using Prompt-Tuning [98.60739735409243]
英語のような高リソース言語で訓練された言語モデルの言語間移動は、多くのNLPタスクのために広く研究されている。
並列および大規模多言語会話データセットである言語間アライメント事前学習のためのXSGDを導入する。
協調的な言語間表現を容易にするために,アライメントプロンプトを学習するための効率的なプロンプトチューニング手法を開発した。
論文 参考訳(メタデータ) (2023-04-03T18:46:01Z) - Switch Point biased Self-Training: Re-purposing Pretrained Models for
Code-Switching [44.034300203700234]
コードスイッチングは、多言語コミュニティにおけるコミュニケーションの容易さから、ユビキタスな現象である。
スイッチポイントバイアスを用いて既存の事前学習モデルを再利用するための自己学習手法を提案する。
本手法は,スイッチポイント性能のギャップを小さくすることで,両タスクにおいて良好に機能する。
論文 参考訳(メタデータ) (2021-11-01T19:42:08Z) - Cross-lingual Spoken Language Understanding with Regularized
Representation Alignment [71.53159402053392]
外部リソースを使わずに言語間で単語レベルの表現と文レベルの表現を整列する正規化手法を提案する。
言語間言語理解タスクの実験により、我々のモデルは、数ショットとゼロショットの両方のシナリオにおいて、最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-09-30T08:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。