論文の概要: C3: Continued Pretraining with Contrastive Weak Supervision for Cross
Language Ad-Hoc Retrieval
- arxiv url: http://arxiv.org/abs/2204.11989v1
- Date: Mon, 25 Apr 2022 23:12:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 00:56:06.550962
- Title: C3: Continued Pretraining with Contrastive Weak Supervision for Cross
Language Ad-Hoc Retrieval
- Title(参考訳): C3: クロス言語アドホック検索のためのコントラスト弱スーパービジョンによる事前トレーニング
- Authors: Eugene Yang and Suraj Nair and Ramraj Chandradevan and Rebecca
Iglesias-Flores and Douglas W. Oard
- Abstract要約: 事前訓練された言語モデルは、アドホック検索を含む多くのタスクの有効性を改善した。
近年の研究では、検索タスクの微調整の前に補助的な目的を持つ言語モデルを事前訓練し続けることで、検索効率がさらに向上することが示されている。
我々は、検索タスクを微調整する前に、異なる言語で同等のウィキペディア記事を使用して、市販の多言語事前訓練モデルをさらに事前訓練する。
- 参考スコア(独自算出の注目度): 16.961711744868815
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Pretrained language models have improved effectiveness on numerous tasks,
including ad-hoc retrieval. Recent work has shown that continuing to pretrain a
language model with auxiliary objectives before fine-tuning on the retrieval
task can further improve retrieval effectiveness. Unlike monolingual retrieval,
designing an appropriate auxiliary task for cross-language mappings is
challenging. To address this challenge, we use comparable Wikipedia articles in
different languages to further pretrain off-the-shelf multilingual pretrained
models before fine-tuning on the retrieval task. We show that our approach
yields improvements in retrieval effectiveness.
- Abstract(参考訳): 事前訓練された言語モデルは、アドホック検索を含む多くのタスクの有効性を改善した。
近年の研究では、検索タスクの微調整前に補助目的の言語モデルを事前学習し続ければ、検索効率がさらに向上することが示されている。
単言語検索とは異なり、言語間マッピングのための適切な補助タスクの設計は困難である。
この課題に対処するために、検索タスクを微調整する前に、異なる言語で同等のウィキペディア記事を使用して、市販の多言語事前訓練モデルをさらに事前訓練する。
提案手法が検索効率の向上をもたらすことを示す。
関連論文リスト
- No Train but Gain: Language Arithmetic for training-free Language Adapters enhancement [59.37775534633868]
本稿では,学習不要な後処理が可能な言語演算法を提案する。
提案手法の有効性を,MAD-Xに基づく言語間スキームの3つの下流課題に適用した。
論文 参考訳(メタデータ) (2024-04-24T08:52:40Z) - CrossIn: An Efficient Instruction Tuning Approach for Cross-Lingual Knowledge Alignment [38.35458193262633]
英語中心のモデルは、通常他の言語では準最適である。
そこで本研究では,言語間命令チューニングデータの混合合成を利用したCrossInという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-18T06:20:50Z) - Improving the Cross-Lingual Generalisation in Visual Question Answering [40.86774711775718]
多言語視覚言語事前学習モデルは、非英語データに適用した場合、言語間一般化が不十分であることを示す。
本研究は、ゼロショット言語間視覚質問応答(VQA)タスクにおいて、これらのモデルの低性能について検討する。
我々は,(1)類似性に基づく損失によるクロスエントロピー損失を増大させる言語的事前目標を導入し,トレーニング中にモデルを導くこと,(2)言語的一般化を改善し,モデルの修正を伴わずに分散を低減するタスク固有のサブネットワークを学習すること,(3)合成コードを用いたトレーニング例を強化すること,の3つの戦略を用いて言語的事前移動を改善する。
論文 参考訳(メタデータ) (2022-09-07T08:07:43Z) - Improving Cross-Lingual Reading Comprehension with Self-Training [62.73937175625953]
現在の最新モデルは、いくつかのベンチマークで人間のパフォーマンスを上回っています。
前作では、ゼロショットのクロスリンガル読解のための事前訓練された多言語モデルの能力を明らかにしている。
本稿では,ラベルのないデータを利用して性能を向上する。
論文 参考訳(メタデータ) (2021-05-08T08:04:30Z) - XTREME-R: Towards More Challenging and Nuanced Multilingual Evaluation [93.80733419450225]
本稿では,言語間移動学習の現状を解析する。
XTREMEを10種類の自然言語理解タスクからなるXTREME-Rに拡張する。
論文 参考訳(メタデータ) (2021-04-15T12:26:12Z) - Pre-training via Paraphrasing [96.79972492585112]
教師なし多言語パラフレージング目的を用いて学習した,事前学習されたシーケンス・ツー・シーケンスモデルであるMARGEを紹介する。
ランダムな初期化のみを前提として,検索と再構築を共同で行うことができることを示す。
例えば、追加のタスク固有のトレーニングがなければ、文書翻訳のBLEUスコアは最大35.8に達する。
論文 参考訳(メタデータ) (2020-06-26T14:43:43Z) - Exploring Fine-tuning Techniques for Pre-trained Cross-lingual Models
via Continual Learning [74.25168207651376]
訓練済みの言語モデルから下流の言語間タスクへの微調整は、有望な結果を示している。
ダウンストリームタスクに微調整する場合、継続学習を活用して、事前学習したモデルの言語間能力を維持する。
提案手法は、ゼロショット言語間タグ付けや名前付きエンティティ認識タスクにおいて、他の微調整ベースラインよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2020-04-29T14:07:18Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z) - Teaching a New Dog Old Tricks: Resurrecting Multilingual Retrieval Using
Zero-shot Learning [30.868309879441615]
我々は、事前訓練された多言語言語モデルを利用して、英語コレクションで訓練された検索システムを非英語クエリや文書に転送することで、データの欠如に対処する。
提案手法は,アラビア語,中国語,スペイン語の教師なし検索手法を著しく上回りうることを示す。
論文 参考訳(メタデータ) (2019-12-30T20:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。