論文の概要: Multilingual Pre-Trained Transformers and Convolutional NN
Classification Models for Technical Domain Identification
- arxiv url: http://arxiv.org/abs/2101.09012v1
- Date: Fri, 22 Jan 2021 09:18:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-21 01:46:25.127608
- Title: Multilingual Pre-Trained Transformers and Convolutional NN
Classification Models for Technical Domain Identification
- Title(参考訳): 技術領域識別のための多言語事前学習トランスと畳み込みnn分類モデル
- Authors: Suman Dowlagar, Radhika Mamidi
- Abstract要約: 多言語テキストデータ上で技術ドメイン識別を行うトランスファー学習システムを提案する。
1つはトランスモデルBERTを使用し、もう1つはCNNモデルとXLM-ROBERTaをテキスト分類に使用します。
当社のシステムは,TechDOficationデータセットのサブタスク1d,1gでベストにランク付けした。
- 参考スコア(独自算出の注目度): 9.23545668304066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a transfer learning system to perform technical
domain identification on multilingual text data. We have submitted two runs,
one uses the transformer model BERT, and the other uses XLM-ROBERTa with the
CNN model for text classification. These models allowed us to identify the
domain of the given sentences for the ICON 2020 shared Task, TechDOfication:
Technical Domain Identification. Our system ranked the best for the subtasks
1d, 1g for the given TechDOfication dataset.
- Abstract(参考訳): 本稿では,多言語テキストデータに対して技術領域識別を行うトランスファー学習システムを提案する。
1つは変換器モデルBERTを使用し、もう1つはテキスト分類にXLM-ROBERTaとCNNモデルを用いる。
これらのモデルによって、アイコン2020の共有タスクであるtechdofication: technical domain identificationの与えられた文のドメインを識別することができます。
当社のシステムは,TechDOficationデータセットのサブタスク1d,1gで最良である。
- 全文 参考訳へのリンク
関連論文リスト
- Improving both domain robustness and domain adaptability in machine
translation [69.15496930090403]
ニューラルネットワーク翻訳におけるドメイン適応の2つの問題に対処する。
まず、トレーニングデータからドメインの堅牢性、すなわち両方のドメインの品質に到達したいと考えています。
第二に、システムに適応性を持たせること、つまり、数百のドメイン内並列文でシステムを微調整できるようにすることが望まれます。
論文 参考訳(メタデータ) (2021-12-15T17:34:59Z) - Non-Parametric Unsupervised Domain Adaptation for Neural Machine
Translation [61.27321597981737]
$k$NN-MTは、トレーニング済みニューラルネットワーク翻訳(NMT)モデルとドメイン固有のトークンレベルである$k$-nearest-neighbor検索を直接組み込むという有望な能力を示している。
対象言語におけるドメイン内単言語文を直接使用して,$k$-nearest-neighbor検索に有効なデータストアを構築する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-14T11:50:01Z) - Generalised Unsupervised Domain Adaptation of Neural Machine Translation
with Cross-Lingual Data Selection [34.90952499734384]
そこで本研究では,多言語単一言語コーパスから,欠落言語側のドメイン内文を抽出する言語間データ選択手法を提案する。
提案手法は,多言語BERT上の適応層を比較学習により学習し,ソースとターゲット言語間の表現を整合させる。
我々は,NMTにおける言語間データ選択手法を,3つの言語ペアで5つのドメインにまたがって評価した。
論文 参考訳(メタデータ) (2021-09-09T14:12:12Z) - Identifying the Limits of Cross-Domain Knowledge Transfer for Pretrained
Models [9.359514457957799]
モデルがランダムなスクランブルによって単語の同一性に関する情報を拒否されると、どの程度の転送が発生するかを調べる。
BERTだけがスクランブルされたドメインへの高い転送率を示し、分類のためにはシークエンスラベリングタスクではないことがわかった。
本分析では,移動がなぜ他のタスクで成功するのかを説明するとともに,事前学習と微調整の別々の貢献を分離し,単語頻度の役割を定量化する。
論文 参考訳(メタデータ) (2021-04-17T00:14:39Z) - Curriculum Graph Co-Teaching for Multi-Target Domain Adaptation [78.28390172958643]
マルチターゲットドメイン適応(MTDA)における複数のドメインシフトを軽減するのに役立つ2つの重要な側面を同定する。
本論文では,二重分類器ヘッドを用いたCGCT(Curriculum Graph Co-Teaching)を提案する。そのうちの1つがグラフ畳み込みネットワーク(GCN)である。
ドメインラベルが利用可能になると、まずより簡単なターゲットドメインに適応し、続いて難しいドメインに適応する逐次適応戦略であるDomain-Aware Curriculum Learning (DCL)を提案する。
論文 参考訳(メタデータ) (2021-04-01T23:41:41Z) - Multichannel LSTM-CNN for Telugu Technical Domain Identification [9.23545668304066]
ドメイン識別は、機械翻訳、テキスト要約、質問応答、情報抽出、感情分析において重要な役割を果たす。
本稿では,Telugu技術領域同定のためのマルチチャネルLSTM-CNN手法を提案する。
論文 参考訳(メタデータ) (2021-02-24T10:15:30Z) - Domain Adaptation in Dialogue Systems using Transfer and Meta-Learning [12.64591916699374]
現在の生成ベースの対話システムは、少量のターゲットデータしか利用できない場合、新しい未知のドメインに適応できない。
トランスファーとメタラーニングを組み合わせることにより,未知の領域に適応する手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T16:16:57Z) - Machine Translation Customization via Automatic Training Data Selection
from the Web [97.98885151955467]
特定のドメインで機械翻訳システムをカスタマイズするためのアプローチについて説明します。
ターゲットとなる顧客データに似たデータを選択し、ニューラル翻訳モデルを訓練する。
最後に、自動選択したデータに基づいてMTモデルをトレーニングし、対象領域に特化したシステムを得る。
論文 参考訳(メタデータ) (2021-02-20T03:29:41Z) - DINO: A Conditional Energy-Based GAN for Domain Translation [67.9879720396872]
ドメイン翻訳は、共通のセマンティクスを維持しながら、あるドメインから別のドメインにデータを変換するプロセスです。
最も人気のあるドメイン翻訳システムは条件付き生成逆数ネットワークに基づいている。
本稿では,2つのネットワークを同時に教師付きで訓練し,反対方向のドメイン翻訳を行う新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-18T11:52:45Z) - FDMT: A Benchmark Dataset for Fine-grained Domain Adaptation in Machine
Translation [53.87731008029645]
機械翻訳(FDMT)における実世界のきめ細かいドメイン適応タスクを提案する。
FDMTデータセットは、自動運転車、AI教育、リアルタイムネットワーク、スマートフォンの4つのサブドメインで構成されている。
この新しい設定で定量的な実験と深い分析を行い、きめ細かいドメイン適応タスクをベンチマークします。
論文 参考訳(メタデータ) (2020-12-31T17:15:09Z) - Domain Adaptation of NMT models for English-Hindi Machine Translation
Task at AdapMT ICON 2020 [2.572404739180802]
本稿では,adapmt共有タスクアイコン2020で提示された英語ヒンディー語のニューラルマシン翻訳システムについて述べる。
我々のチームは化学・一般分野のEn-Hi翻訳タスクで第1位、AI分野のEn-Hi翻訳タスクで第2位にランクインした。
論文 参考訳(メタデータ) (2020-12-22T15:46:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。