論文の概要: FreeTransfer-X: Safe and Label-Free Cross-Lingual Transfer from
Off-the-Shelf Models
- arxiv url: http://arxiv.org/abs/2206.06586v1
- Date: Tue, 14 Jun 2022 04:09:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 14:38:44.686563
- Title: FreeTransfer-X: Safe and Label-Free Cross-Lingual Transfer from
Off-the-Shelf Models
- Title(参考訳): FreeTransfer-X:オフザシェルフモデルからの安全性とラベルフリー言語間移動
- Authors: Yinpeng Guo, Liangyou Li, Xin Jiang, Qun Liu
- Abstract要約: 言語間移動(CLT)は様々な応用がある。
我々は,リッチ・ソース言語における既成モデルから知識伝達を実現することを目的とした,FreeTransfer-Xという新しいCLT問題を提案する。
- 参考スコア(独自算出の注目度): 39.71818534116787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-lingual transfer (CLT) is of various applications. However, labeled
cross-lingual corpus is expensive or even inaccessible, especially in the
fields where labels are private, such as diagnostic results of symptoms in
medicine and user profiles in business. Nevertheless, there are off-the-shelf
models in these sensitive fields. Instead of pursuing the original labels, a
workaround for CLT is to transfer knowledge from the off-the-shelf models
without labels. To this end, we define a novel CLT problem named FreeTransfer-X
that aims to achieve knowledge transfer from the off-the-shelf models in
rich-resource languages. To address the problem, we propose a 2-step knowledge
distillation (KD, Hinton et al., 2015) framework based on multilingual
pre-trained language models (mPLM). The significant improvement over strong
neural machine translation (NMT) baselines demonstrates the effectiveness of
the proposed method. In addition to reducing annotation cost and protecting
private labels, the proposed method is compatible with different networks and
easy to be deployed. Finally, a range of analyses indicate the great potential
of the proposed method.
- Abstract(参考訳): 言語間移動(CLT)は様々な応用がある。
しかし、特に医療における症状の診断結果やビジネスにおけるユーザプロファイルなど、ラベルがプライベートな分野では、ラベル付き言語横断コーパスは高価またはアクセス不能である。
それでも、これらのセンシティブな分野には既製のモデルがある。
オリジナルのラベルを追求する代わりに、CLTの回避策は、ラベルなしで市販のモデルから知識を伝達することである。
この目的のために我々は,リッチリソース言語における既成モデルからの知識伝達を達成することを目的とした,freetransfer-x という新しい clt 問題を定義する。
そこで本研究では,多言語事前学習言語モデル(mPLM)に基づく2段階の知識蒸留(KD, Hinton et al., 2015)フレームワークを提案する。
強力なニューラルマシン翻訳(nmt)ベースラインに対する大幅な改善は,提案手法の有効性を示すものである。
アノテーションコストの削減とプライベートラベルの保護に加えて,提案手法は異なるネットワークと互換性があり,デプロイが容易である。
最後に,提案手法の大きな可能性を示す分析範囲を示す。
関連論文リスト
- Constrained Decoding for Cross-lingual Label Projection [27.567195418950966]
ラベル付き学習データを持たない低リソース言語では,多言語 LLM を用いた言語間移動が一般的な学習パラダイムとなっている。
しかし、単語やフレーズの微粒な予測を含むNLPタスクでは、ゼロショットの言語間移動学習は教師付き微調整法よりもはるかに遅れている。
論文 参考訳(メタデータ) (2024-02-05T15:57:32Z) - Self-Augmentation Improves Zero-Shot Cross-Lingual Transfer [92.80671770992572]
言語間移動は多言語NLPにおける中心的なタスクである。
このタスクの以前の作業では、並列コーパス、バイリンガル辞書、その他の注釈付きアライメントデータを使用していた。
ゼロショットの言語間移動を改善するため, 単純で効果的なSALT法を提案する。
論文 参考訳(メタデータ) (2023-09-19T19:30:56Z) - Transfer-Free Data-Efficient Multilingual Slot Labeling [82.02076369811402]
スロットラベリングはタスク指向対話(ToD)システムの中核的なコンポーネントである。
固有データ不足の問題を緩和するために、多言語ToDに関する現在の研究は、十分な英語の注釈付きデータが常に利用可能であると仮定している。
標準的な多言語文エンコーダを効果的なスロットラベリングに変換する2段階のスロットラベリング手法(TWOSL)を提案する。
論文 参考訳(メタデータ) (2023-05-22T22:47:32Z) - Multilingual LLMs are Better Cross-lingual In-context Learners with
Alignment [24.742581572364124]
インコンテキスト学習(ICL)は、大規模言語モデルが勾配更新なしでいくつかのラベル付きサンプルに条件付きテストラベルを推測できるようになり、展開される。
言語間テキスト分類のためのICLの詳細な分析を行う。
我々は新しいプロンプト・コンストラクション・ストラテジ--クロスランガルなインコンテキスト・ソース・ターゲットアライメント(X-InSTA)を提案する。
論文 参考訳(メタデータ) (2023-05-10T07:24:36Z) - Model and Data Transfer for Cross-Lingual Sequence Labelling in
Zero-Resource Settings [10.871587311621974]
我々は、ゼロショット設定に適用された高容量多言語言語モデルが、データベースのクロスランガルトランスファーアプローチより一貫して優れていることを実験的に実証した。
この結果の詳細な分析は、言語使用における重要な違いによる可能性があることを示唆している。
また,高容量多言語言語モデルが利用できない場合,データに基づく多言語間移動アプローチが競争力のある選択肢であることも示唆した。
論文 参考訳(メタデータ) (2022-10-23T05:37:35Z) - A Simple and Effective Method to Improve Zero-Shot Cross-Lingual
Transfer Learning [6.329304732560936]
既存のゼロショットのクロスリンガル転送法は、並列コーパスやバイリンガル辞書に依存している。
意味喪失のない仮想多言語埋め込みに英語の埋め込みを移すための埋め込み・プッシュ・アテンション・プル・ロバスト・ターゲットを提案する。
論文 参考訳(メタデータ) (2022-10-18T15:36:53Z) - CROP: Zero-shot Cross-lingual Named Entity Recognition with Multilingual
Labeled Sequence Translation [113.99145386490639]
言語間NERは、整列した言語間表現や機械翻訳結果を通じて、言語間で知識を伝達することができる。
ゼロショット言語間NERを実現するために,クロスランガル・エンティティ・プロジェクション・フレームワーク(CROP)を提案する。
多言語ラベル付きシーケンス翻訳モデルを用いて、タグ付けされたシーケンスをターゲット言語に投影し、ターゲットの原文にラベル付けする。
論文 参考訳(メタデータ) (2022-10-13T13:32:36Z) - Few-Shot Cross-lingual Transfer for Coarse-grained De-identification of
Code-Mixed Clinical Texts [56.72488923420374]
事前学習型言語モデル (LM) は低リソース環境下での言語間移動に大きな可能性を示している。
脳卒中におけるコードミキシング(スペイン・カタラン)臨床ノートの低リソース・実世界の課題を解決するために,NER (name recognition) のためのLMの多言語間転写特性を示す。
論文 参考訳(メタデータ) (2022-04-10T21:46:52Z) - A Dual-Contrastive Framework for Low-Resource Cross-Lingual Named Entity
Recognition [5.030581940990434]
クロスランガルな名前付きエンティティ認識(NER)は、低リソース言語におけるデータ空白問題を緩和できるため、最近研究ホットスポットになっている。
本稿では,言語間NERのための2言語コントラストフレームワーク ConCNER について述べる。
論文 参考訳(メタデータ) (2022-04-02T07:59:13Z) - Leveraging Adversarial Training in Self-Learning for Cross-Lingual Text
Classification [52.69730591919885]
本稿では,ラベル保存型入力摂動の最大損失を最小限に抑える半教師付き対向学習法を提案する。
多様な言語群に対する文書分類と意図分類において,有効性が著しく向上するのを観察する。
論文 参考訳(メタデータ) (2020-07-29T19:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。