論文の概要: Multilingual Pre-Trained Transformers and Convolutional NN
Classification Models for Technical Domain Identification
- arxiv url: http://arxiv.org/abs/2101.09012v1
- Date: Fri, 22 Jan 2021 09:18:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-21 01:46:25.127608
- Title: Multilingual Pre-Trained Transformers and Convolutional NN
Classification Models for Technical Domain Identification
- Title(参考訳): 技術領域識別のための多言語事前学習トランスと畳み込みnn分類モデル
- Authors: Suman Dowlagar, Radhika Mamidi
- Abstract要約: 多言語テキストデータ上で技術ドメイン識別を行うトランスファー学習システムを提案する。
1つはトランスモデルBERTを使用し、もう1つはCNNモデルとXLM-ROBERTaをテキスト分類に使用します。
当社のシステムは,TechDOficationデータセットのサブタスク1d,1gでベストにランク付けした。
- 参考スコア(独自算出の注目度): 9.23545668304066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a transfer learning system to perform technical
domain identification on multilingual text data. We have submitted two runs,
one uses the transformer model BERT, and the other uses XLM-ROBERTa with the
CNN model for text classification. These models allowed us to identify the
domain of the given sentences for the ICON 2020 shared Task, TechDOfication:
Technical Domain Identification. Our system ranked the best for the subtasks
1d, 1g for the given TechDOfication dataset.
- Abstract(参考訳): 本稿では,多言語テキストデータに対して技術領域識別を行うトランスファー学習システムを提案する。
1つは変換器モデルBERTを使用し、もう1つはテキスト分類にXLM-ROBERTaとCNNモデルを用いる。
これらのモデルによって、アイコン2020の共有タスクであるtechdofication: technical domain identificationの与えられた文のドメインを識別することができます。
当社のシステムは,TechDOficationデータセットのサブタスク1d,1gで最良である。
関連論文リスト
- A Unified Data Augmentation Framework for Low-Resource Multi-Domain Dialogue Generation [52.0964459842176]
現在の最先端の対話システムは、広範なトレーニングデータセットに大きく依存している。
我々はtextbfAMD$2$G と呼ばれる textbfMulti-textbfDomain textbfDialogue textbfGeneration のための新しいデータ textbfAugmentation フレームワークを提案する。
AMD$2$Gフレームワークは、データ拡張プロセスと、ドメインに依存しないトレーニングとドメイン適応トレーニングという2段階のトレーニングアプローチで構成されている。
論文 参考訳(メタデータ) (2024-06-14T09:52:27Z) - $m^4Adapter$: Multilingual Multi-Domain Adaptation for Machine
Translation with a Meta-Adapter [128.69723410769586]
多言語ニューラルネットワーク翻訳モデル(MNMT)は、ドメインと言語ペアのデータに基づいて評価すると、最先端の性能が得られる。
ドメインシフトや新しい言語ペアへの変換にMNMTモデルを使用すると、パフォーマンスが劇的に低下する。
我々はメタラーニングとアダプタを用いたドメイン知識と言語知識を組み合わせた$m4Adapter$を提案する。
論文 参考訳(メタデータ) (2022-10-21T12:25:05Z) - Generalised Unsupervised Domain Adaptation of Neural Machine Translation
with Cross-Lingual Data Selection [34.90952499734384]
そこで本研究では,多言語単一言語コーパスから,欠落言語側のドメイン内文を抽出する言語間データ選択手法を提案する。
提案手法は,多言語BERT上の適応層を比較学習により学習し,ソースとターゲット言語間の表現を整合させる。
我々は,NMTにおける言語間データ選択手法を,3つの言語ペアで5つのドメインにまたがって評価した。
論文 参考訳(メタデータ) (2021-09-09T14:12:12Z) - Identifying the Limits of Cross-Domain Knowledge Transfer for Pretrained
Models [9.359514457957799]
モデルがランダムなスクランブルによって単語の同一性に関する情報を拒否されると、どの程度の転送が発生するかを調べる。
BERTだけがスクランブルされたドメインへの高い転送率を示し、分類のためにはシークエンスラベリングタスクではないことがわかった。
本分析では,移動がなぜ他のタスクで成功するのかを説明するとともに,事前学習と微調整の別々の貢献を分離し,単語頻度の役割を定量化する。
論文 参考訳(メタデータ) (2021-04-17T00:14:39Z) - Curriculum Graph Co-Teaching for Multi-Target Domain Adaptation [78.28390172958643]
マルチターゲットドメイン適応(MTDA)における複数のドメインシフトを軽減するのに役立つ2つの重要な側面を同定する。
本論文では,二重分類器ヘッドを用いたCGCT(Curriculum Graph Co-Teaching)を提案する。そのうちの1つがグラフ畳み込みネットワーク(GCN)である。
ドメインラベルが利用可能になると、まずより簡単なターゲットドメインに適応し、続いて難しいドメインに適応する逐次適応戦略であるDomain-Aware Curriculum Learning (DCL)を提案する。
論文 参考訳(メタデータ) (2021-04-01T23:41:41Z) - Multichannel LSTM-CNN for Telugu Technical Domain Identification [9.23545668304066]
ドメイン識別は、機械翻訳、テキスト要約、質問応答、情報抽出、感情分析において重要な役割を果たす。
本稿では,Telugu技術領域同定のためのマルチチャネルLSTM-CNN手法を提案する。
論文 参考訳(メタデータ) (2021-02-24T10:15:30Z) - Domain Adaptation in Dialogue Systems using Transfer and Meta-Learning [12.64591916699374]
現在の生成ベースの対話システムは、少量のターゲットデータしか利用できない場合、新しい未知のドメインに適応できない。
トランスファーとメタラーニングを組み合わせることにより,未知の領域に適応する手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T16:16:57Z) - Machine Translation Customization via Automatic Training Data Selection
from the Web [97.98885151955467]
特定のドメインで機械翻訳システムをカスタマイズするためのアプローチについて説明します。
ターゲットとなる顧客データに似たデータを選択し、ニューラル翻訳モデルを訓練する。
最後に、自動選択したデータに基づいてMTモデルをトレーニングし、対象領域に特化したシステムを得る。
論文 参考訳(メタデータ) (2021-02-20T03:29:41Z) - FDMT: A Benchmark Dataset for Fine-grained Domain Adaptation in Machine
Translation [53.87731008029645]
機械翻訳(FDMT)における実世界のきめ細かいドメイン適応タスクを提案する。
FDMTデータセットは、自動運転車、AI教育、リアルタイムネットワーク、スマートフォンの4つのサブドメインで構成されている。
この新しい設定で定量的な実験と深い分析を行い、きめ細かいドメイン適応タスクをベンチマークします。
論文 参考訳(メタデータ) (2020-12-31T17:15:09Z) - Domain Adaptation of NMT models for English-Hindi Machine Translation
Task at AdapMT ICON 2020 [2.572404739180802]
本稿では,adapmt共有タスクアイコン2020で提示された英語ヒンディー語のニューラルマシン翻訳システムについて述べる。
我々のチームは化学・一般分野のEn-Hi翻訳タスクで第1位、AI分野のEn-Hi翻訳タスクで第2位にランクインした。
論文 参考訳(メタデータ) (2020-12-22T15:46:40Z) - Unsupervised Domain Clusters in Pretrained Language Models [61.832234606157286]
大規模事前学習型言語モデルでは,教師なしのドメインによってクラスタ化される文表現を暗黙的に学習する。
このようなモデルに基づくドメインデータ選択手法を提案する。
我々は5つの異なる領域にわたるニューラルネットワーク翻訳のためのデータ選択手法を評価する。
論文 参考訳(メタデータ) (2020-04-05T06:22:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。