論文の概要: Semi-Supervised Bilingual Lexicon Induction with Two-way Interaction
- arxiv url: http://arxiv.org/abs/2010.07101v1
- Date: Wed, 14 Oct 2020 13:59:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 13:29:26.883054
- Title: Semi-Supervised Bilingual Lexicon Induction with Two-way Interaction
- Title(参考訳): 双方向相互作用を用いた半監督バイリンガル語彙誘導
- Authors: Xu Zhao, Zihao Wang, Hao Wu, Yong Zhang
- Abstract要約: 教師付き信号と教師なしアライメントの相互作用を促進するための,新しい半教師付きBLIフレームワークを提案する。
MUSEおよびVecMapデータセットの実験結果から,我々のモデルに大きな改善が得られた。
- 参考スコア(独自算出の注目度): 19.99658962367335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervision is a promising paradigm for Bilingual Lexicon Induction
(BLI) with limited annotations. However, previous semisupervised methods do not
fully utilize the knowledge hidden in annotated and nonannotated data, which
hinders further improvement of their performance. In this paper, we propose a
new semi-supervised BLI framework to encourage the interaction between the
supervised signal and unsupervised alignment. We design two message-passing
mechanisms to transfer knowledge between annotated and non-annotated data,
named prior optimal transport and bi-directional lexicon update respectively.
Then, we perform semi-supervised learning based on a cyclic or a parallel
parameter feeding routine to update our models. Our framework is a general
framework that can incorporate any supervised and unsupervised BLI methods
based on optimal transport. Experimental results on MUSE and VecMap datasets
show significant improvement of our models. Ablation study also proves that the
two-way interaction between the supervised signal and unsupervised alignment
accounts for the gain of the overall performance. Results on distant language
pairs further illustrate the advantage and robustness of our proposed method.
- Abstract(参考訳): セミスーパービジョンは、限定アノテーションを持つバイリンガル語彙誘導(BLI)のための有望なパラダイムである。
しかし、従来の半教師付き手法では、注釈データや非注釈データに隠された知識を十分に活用していないため、さらなる性能向上を妨げている。
本稿では,教師付き信号と教師なしアライメントとのインタラクションを促進するための,新しい半教師付きbliフレームワークを提案する。
注釈付きデータと非注釈付きデータの間で知識を伝達する2つのメッセージパッシング機構を,それぞれprior optimal transport と bi-directional lexicon update と命名した。
そして,周期的あるいはパラレルなパラメータ供給ルーチンに基づいて半教師付き学習を行い,モデルを更新する。
我々のフレームワークは、最適輸送に基づく教師付きおよび教師なしのBLIメソッドを組み込むことができる一般的なフレームワークである。
MUSEおよびVecMapデータセットの実験結果から,我々のモデルに大きな改善が得られた。
アブレーション研究はまた、教師付き信号と教師なしアライメントとの双方向相互作用が全体的な性能の利得を左右することを示した。
遠方の言語ペアの結果は,提案手法の長所と頑健さをさらに示している。
関連論文リスト
- ItTakesTwo: Leveraging Peer Representations for Semi-supervised LiDAR Semantic Segmentation [24.743048965822297]
本稿では,ItTakesTwo (IT2) と呼ばれる半教師付きLiDARセマンティックセマンティックセマンティクスフレームワークを提案する。
IT2は、ピアLiDAR表現からの一貫性のある予測を保証するために設計されており、一貫性学習における摂動効率を改善する。
その結果,本手法は従来のSOTA法よりも顕著に改善されていることがわかった。
論文 参考訳(メタデータ) (2024-07-09T18:26:53Z) - Robust Training of Federated Models with Extremely Label Deficiency [84.00832527512148]
フェデレーション半教師付き学習(FSSL)は、ラベル不足を伴う分散データを用いて機械学習モデルを協調訓練するための強力なパラダイムとして登場した。
我々は,ラベル付きおよびラベルなしデータの異なる視点から洞察を提供することにより相互指導を強化するために,ツインサイトと呼ばれる新しいツインモデルパラダイムを提案する。
4つのベンチマークデータセットに関する包括的な実験は、Twin-sightが様々な実験環境において最先端の手法を著しく上回っていることを示す重要な証拠となる。
論文 参考訳(メタデータ) (2024-02-22T10:19:34Z) - Bidirectional Trained Tree-Structured Decoder for Handwritten
Mathematical Expression Recognition [51.66383337087724]
Handwriting Mathematical Expression Recognition (HMER) タスクは、OCRの分野における重要な分岐である。
近年の研究では、双方向コンテキスト情報の導入により、HMERモデルの性能が大幅に向上することが示されている。
本稿では,MF-SLT と双方向非同期トレーニング (BAT) 構造を提案する。
論文 参考訳(メタデータ) (2023-12-31T09:24:21Z) - Anticipating the Unseen Discrepancy for Vision and Language Navigation [63.399180481818405]
視覚言語ナビゲーションでは、エージェントは特定のターゲットに到達するために自然言語命令に従う必要がある。
目に見える環境と目に見えない環境の間に大きな違いがあるため、エージェントがうまく一般化することは困難である。
本研究では,テストタイムの視覚的整合性を促進することによって,未知の環境への一般化を学習する,未知の離散性予測ビジョンと言語ナビゲーション(DAVIS)を提案する。
論文 参考訳(メタデータ) (2022-09-10T19:04:40Z) - Improving Distantly Supervised Relation Extraction by Natural Language
Inference [9.181270251524866]
本稿では,既存の知識ベースから遠ざかる監視と,事前学習した言語モデルから他のタスクへ間接的に監督するDSRE-NLIフレームワークを提案する。
DSRE-NLIは、半自動的関係言語化(SARV)機構により、市販の自然言語推論(NLI)エンジンをエネルギ化し、間接的な監視を提供する。
2つのシンプルで効果的なデータ統合戦略により、トレーニングデータの質が大幅に向上する。
論文 参考訳(メタデータ) (2022-07-31T02:48:34Z) - On the Role of Bidirectionality in Language Model Pre-Training [85.14614350372004]
本研究では,次のトークン予測,テキスト入力,ゼロショットプライミング,微調整における双方向性の役割について検討する。
最大6.7Bのパラメータを持つモデルをトレーニングし、スケールで一貫性のある相違点を見つけます。
論文 参考訳(メタデータ) (2022-05-24T02:25:05Z) - Bridging the Data Gap between Training and Inference for Unsupervised
Neural Machine Translation [49.916963624249355]
UNMTモデルは、翻訳されたソースと推論中の自然言語で擬似並列データに基づいて訓練される。
トレーニングと推論のソース差はUNMTモデルの翻訳性能を妨げている。
本稿では、擬似並列データ自然言語を同時に用いたオンライン自己学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-16T04:50:27Z) - Self-Supervised Contrastive Learning for Unsupervised Phoneme
Segmentation [37.054709598792165]
このモデルは畳み込みニューラルネットワークであり、生波形上で直接動作する。
ノイズコントラスト推定原理を用いて信号のスペクトル変化を同定する。
テスト時には、モデル出力にピーク検出アルゴリズムを適用して最終境界を生成する。
論文 参考訳(メタデータ) (2020-07-27T12:10:21Z) - Dual Learning for Semi-Supervised Natural Language Understanding [29.692288627633374]
自然言語理解(NLU)は、文を構造化意味形式に変換する。
NLU, semantic-to-sentence generation (SSG) の2つのタスクを導入する。
本稿では,対応する2つのモデルを用いた半教師付きNLUのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-26T07:17:48Z) - Cross-lingual Supervision Improves Unsupervised Neural Machine
Translation [97.84871088440102]
我々は,高リソース言語対からゼロリソース翻訳方向への弱教師付き信号を活用するために,多言語非教師付きNMTフレームワークを導入する。
6つのベンチマークの教師なし翻訳方向において,BLEUスコアが3以上あることにより,翻訳品質が大幅に向上する。
論文 参考訳(メタデータ) (2020-04-07T05:46:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。