論文の概要: CLICKER: Attention-Based Cross-Lingual Commonsense Knowledge Transfer
- arxiv url: http://arxiv.org/abs/2302.13201v1
- Date: Sun, 26 Feb 2023 00:57:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 18:21:19.621678
- Title: CLICKER: Attention-Based Cross-Lingual Commonsense Knowledge Transfer
- Title(参考訳): CLICKER: 意識に基づく言語間共通知識伝達
- Authors: Ruolin Su, Zhongkai Sun, Sixing Lu, Chengyuan Ma, Chenlei Guo
- Abstract要約: 本稿では,注目度に基づくクロスリンガル・コモンセンス・ナレッジ・トランスファーフレームワークを提案する。
CLICKERは、常識的な質問応答タスクにおいて、英語と非英語のパフォーマンスギャップを最小限にする。
CLICKERは、英語以外の言語に対する言語間タスクにおいて、顕著な改善を実現している。
- 参考スコア(独自算出の注目度): 5.375217612596619
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in cross-lingual commonsense reasoning (CSR) are facilitated
by the development of multilingual pre-trained models (mPTMs). While mPTMs show
the potential to encode commonsense knowledge for different languages,
transferring commonsense knowledge learned in large-scale English corpus to
other languages is challenging. To address this problem, we propose the
attention-based Cross-LIngual Commonsense Knowledge transfER (CLICKER)
framework, which minimizes the performance gaps between English and non-English
languages in commonsense question-answering tasks. CLICKER effectively improves
commonsense reasoning for non-English languages by differentiating
non-commonsense knowledge from commonsense knowledge. Experimental results on
public benchmarks demonstrate that CLICKER achieves remarkable improvements in
the cross-lingual CSR task for languages other than English.
- Abstract(参考訳): 言語間コモンセンス推論(CSR)の最近の進歩は、多言語事前学習モデル(mPTM)の開発によって促進される。
mPTMは、異なる言語に対するコモンセンス知識を符号化する可能性を示しているが、大規模な英語コーパスで学んだコモンセンス知識を他の言語に転送することは困難である。
そこで本研究では,英語と非英語の言語間の性能差を最小限に抑えるための共通語間コモンセンス知識伝達(clicker)フレームワークを提案する。
CLICKERは、非常識知識とコモンセンス知識を区別することにより、非英語言語のコモンセンス推論を効果的に改善する。
公的なベンチマーク実験の結果、CLICKERは英語以外の言語に対する言語間CSRタスクにおいて顕著な改善を達成していることが示された。
関連論文リスト
- Can Code-Switched Texts Activate a Knowledge Switch in LLMs? A Case Study on English-Korean Code-Switching [14.841981996951395]
コードスイッチング(英語版) (CS) は微妙な文化的・言語的なニュアンスを伝えることができ、それ以外は翻訳で失われることがある。
近年の多言語大言語モデル(LLM)は,CSの理解など,様々な面で優れた多言語能力を示す。
論文 参考訳(メタデータ) (2024-10-24T05:14:03Z) - Cross-Lingual Multi-Hop Knowledge Editing -- Benchmarks, Analysis and a Simple Contrastive Learning based Approach [53.028586843468915]
言語横断的な設定で様々なSoTA知識編集技術の性能を計測・解析するための多言語多言語知識編集パラダイムを提案する。
具体的には、知識編集能力を測定するために並列言語間ベンチマーク CROLIN-MQUAKE を作成します。
次に,言語間マルチホップ知識編集システムであるCLEVER-CKEを提案する。
論文 参考訳(メタデータ) (2024-07-14T17:18:16Z) - xCoT: Cross-lingual Instruction Tuning for Cross-lingual
Chain-of-Thought Reasoning [36.34986831526529]
CoT(Chain-of-Thought)は、大規模言語モデルにおける推論を誘発する強力なテクニックとして登場した。
本稿では,ハイソース言語から低リソース言語へ知識を伝達するための言語間命令微調整フレームワーク(xCOT)を提案する。
論文 参考訳(メタデータ) (2024-01-13T10:53:53Z) - CL-MASR: A Continual Learning Benchmark for Multilingual ASR [15.974765568276615]
連続学習環境における多言語自動音声認識のベンチマークであるCL-MASRを提案する。
CL-MASRは、大規模事前訓練されたASRモデル上に実装された多種多様な連続学習手法と共通のメトリクスを提供する。
我々の知る限り、CL-MASRは多言語ASRタスクのための最初の連続学習ベンチマークである。
論文 参考訳(メタデータ) (2023-10-25T18:55:40Z) - The Impact of Cross-Lingual Adjustment of Contextual Word
Representations on Zero-Shot Transfer [3.300216758849348]
mBERTやXLM-Rのような大規模な多言語言語モデルは、様々なIRやNLPタスクにおいてゼロショットの言語間転送を可能にする。
そこで本研究では,mBERTの並列コーパスを用いた言語間相互調整のためのデータ・計算効率向上手法を提案する。
類型的に多様な言語(スペイン語、ロシア語、ベトナム語、ヒンディー語)を実験し、その実装を新しいタスクに拡張する。
NER, XSR, 言語間QAを改良した4言語でのNLIの再生ゲインについて検討した。
論文 参考訳(メタデータ) (2022-04-13T15:28:43Z) - Leveraging Knowledge in Multilingual Commonsense Reasoning [25.155987513306854]
本稿では,翻訳・検索・翻訳(TRT)戦略を用いて,英語の知識ソースを活用することを提案する。
多言語コモンセンスの質問や選択に対して,知識ソースからの翻訳や検索を通じて関連する知識を収集する。
検索した知識は対象言語に翻訳され、事前訓練された多言語言語モデルに統合される。
論文 参考訳(メタデータ) (2021-10-16T03:51:53Z) - X-METRA-ADA: Cross-lingual Meta-Transfer Learning Adaptation to Natural
Language Understanding and Question Answering [55.57776147848929]
自然言語理解のための言語横断型メタトランシュファー学習アプローチX-METRA-ADAを提案する。
我々のアプローチは、最適化に基づくメタ学習アプローチであるMAMLに適応し、新しい言語に適応することを学ぶ。
提案手法は難易度の高い微調整に優れており,ほとんどの言語において両タスクの競合性能に到達していることを示す。
論文 参考訳(メタデータ) (2021-04-20T00:13:35Z) - Evaluating Multilingual Text Encoders for Unsupervised Cross-Lingual
Retrieval [51.60862829942932]
本稿では,言語間文書・文検索タスクにおける最先端多言語エンコーダの適合性に着目した体系的実証研究を行う。
文レベルのCLIRでは、最先端のパフォーマンスが達成できることを実証する。
しかし、ピーク性能は、汎用の多言語テキストエンコーダをオフ・ザ・シェルフで使うのではなく、文の理解タスクにさらに特化したバリエーションに依存している。
論文 参考訳(メタデータ) (2021-01-21T00:15:38Z) - VECO: Variable and Flexible Cross-lingual Pre-training for Language
Understanding and Generation [77.82373082024934]
我々はTransformerエンコーダにクロスアテンションモジュールを挿入し、言語間の相互依存を明確に構築する。
独自の言語でコンテキストにのみ条件付けされたマスク付き単語の予測の退化を効果的に回避することができる。
提案した言語間モデルでは,XTREMEベンチマークのさまざまな言語間理解タスクに対して,最先端の新たな結果が提供される。
論文 参考訳(メタデータ) (2020-10-30T03:41:38Z) - Cross-lingual Machine Reading Comprehension with Language Branch
Knowledge Distillation [105.41167108465085]
言語間機械読解(CLMRC)は、ローソース言語に大規模なデータセットがないため、依然として難しい問題である。
本稿では,Language Branch Machine Reading (LBMRC) という新しい拡張手法を提案する。
LBMRCは、個々の言語に精通したMultiple Machine Read comprehension (MRC)モデルを訓練する。
複数の言語分岐モデルから全ての対象言語に対する単一モデルへのアマルガメート知識の多言語蒸留アプローチを考案する。
論文 参考訳(メタデータ) (2020-10-27T13:12:17Z) - Enhancing Answer Boundary Detection for Multilingual Machine Reading
Comprehension [86.1617182312817]
そこで我々は,句境界管理を付加するために,微調整段階における2つの補助的タスクを提案する。
混合機械読解タスクは、質問または通過を他の言語に翻訳し、言語横断の問合せペアを構築する。
Webから抽出した知識フレーズを活用する言語に依存しない知識マスキングタスク。
論文 参考訳(メタデータ) (2020-04-29T10:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。