論文の概要: BERTGEN: Multi-task Generation through BERT
- arxiv url: http://arxiv.org/abs/2106.03484v1
- Date: Mon, 7 Jun 2021 10:17:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 18:14:14.576307
- Title: BERTGEN: Multi-task Generation through BERT
- Title(参考訳): BERTGEN:BERTによるマルチタスク生成
- Authors: Faidon Mitzalis, Ozan Caglayan, Pranava Madhyastha, Lucia Specia
- Abstract要約: 本稿では,マルチモーダルモデルと多言語事前学習モデルとを融合させることにより,BERTを拡張した新規なデコーダ専用モデルであるBERTGENを提案する。
総合的な評価によって、BERTGENは探索されたタスク全体で多くの強いベースラインを上回ります。
また、BERTGENのゼロショット言語生成能力を示すとともに、教師付き言語と競合する性能を示す。
- 参考スコア(独自算出の注目度): 30.905286823599976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present BERTGEN, a novel generative, decoder-only model which extends BERT
by fusing multimodal and multilingual pretrained models VL-BERT and M-BERT,
respectively. BERTGEN is auto-regressively trained for language generation
tasks, namely image captioning, machine translation and multimodal machine
translation, under a multitask setting. With a comprehensive set of
evaluations, we show that BERTGEN outperforms many strong baselines across the
tasks explored. We also show BERTGEN's ability for zero-shot language
generation, where it exhibits competitive performance to supervised
counterparts. Finally, we conduct ablation studies which demonstrate that
BERTGEN substantially benefits from multi-tasking and effectively transfers
relevant inductive biases from the pre-trained models.
- Abstract(参考訳): 本稿では,多モーダルおよび多言語事前学習モデルであるVL-BERTとM-BERTを融合することにより,BERTを拡張する新しい生成デコーダのみのモデルであるBERTGENを提案する。
BERTGENは、画像キャプション、機械翻訳、マルチモーダル機械翻訳といった言語生成タスクをマルチタスク設定で自動回帰訓練する。
総合的な評価によって、BERTGENは探索されたタスク全体で多くの強いベースラインを上回ります。
また、BERTGENのゼロショット言語生成能力を示すとともに、教師付き言語と競合する性能を示す。
最後に,マルチタスクからベルトゲンが実質的に有益であることを示し,事前学習したモデルから関連する帰納バイアスを効果的に伝達するアブレーション研究を行う。
関連論文リスト
- Can BERT Refrain from Forgetting on Sequential Tasks? A Probing Study [68.75670223005716]
BERTのような事前学習型言語モデルでは,メモリリプレイが少なくても,逐次学習が可能であることが判明した。
実験の結果,BERT は従来学習したタスクに対して,極めて疎らなリプレイや,さらにはリプレイを行なわずに,長期間にわたって高品質な表現を生成できることが判明した。
論文 参考訳(メタデータ) (2023-03-02T09:03:43Z) - XDBERT: Distilling Visual Information to BERT from Cross-Modal Systems
to Improve Language Understanding [73.24847320536813]
本研究では,事前学習したマルチモーダル変換器から事前学習した言語エンコーダへの視覚情報の蒸留について検討する。
我々のフレームワークは,NLUの言語重み特性に適応するために学習目標を変更する一方で,視覚言語タスクにおけるクロスモーダルエンコーダの成功にインスパイアされている。
論文 参考訳(メタデータ) (2022-04-15T03:44:00Z) - Zero-shot Cross-lingual Transfer of Neural Machine Translation with
Multilingual Pretrained Encoders [74.89326277221072]
多言語プリトレーニング済みエンコーダによるNMTモデルのクロスリンガル転送を改善する方法は、未検討です。
このタスクのシンプルで効果的なモデルであるSixTを提案します。
私達のモデルはCRISSおよびm2m-100より多くの英語テストセットでよりよい性能を達成します。
論文 参考訳(メタデータ) (2021-04-18T07:42:45Z) - Bertinho: Galician BERT Representations [14.341471404165349]
本稿ではガリシア語に対する単言語BERTモデルを提案する。
我々は、それぞれ6層と12層からなる2つのモデルをリリースする。
我々のモデル、特に12層モデルでは、ほとんどのタスクにおいてmBERTの結果よりも優れています。
論文 参考訳(メタデータ) (2021-03-25T12:51:34Z) - Cross-lingual Information Retrieval with BERT [8.052497255948046]
本稿では、人気のある双方向言語モデルBERTを用いて、英語クエリと外国語文書の関係をモデル化し、学習する。
BERTに基づく深部関係マッチングモデルを導入し,教師の弱い事前学習多言語BERTモデルを微調整して訓練する。
短い英語クエリに対するリトアニア語文書の検索実験の結果、我々のモデルは有効であり、競争ベースラインのアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-04-24T23:32:13Z) - A Study of Cross-Lingual Ability and Language-specific Information in
Multilingual BERT [60.9051207862378]
Multilingual BERTは、言語間転送タスクで驚くほどうまく機能します。
データサイズとコンテキストウィンドウサイズは、転送可能性にとって重要な要素です。
多言語BERTの言語間能力を改善するために、計算的に安価だが効果的なアプローチがある。
論文 参考訳(メタデータ) (2020-04-20T11:13:16Z) - lamBERT: Language and Action Learning Using Multimodal BERT [0.1942428068361014]
本研究では,マルチモーダルBERT(lamBERT)モデルを用いた言語と行動学習を提案する。
実験は、エージェントが適切に振る舞うために言語理解を必要とするグリッド環境で行われる。
lamBERTモデルは、他のモデルと比較してマルチタスク設定や転送設定において高い報酬を得た。
論文 参考訳(メタデータ) (2020-04-15T13:54:55Z) - What BERT Sees: Cross-Modal Transfer for Visual Question Generation [21.640299110619384]
補足データを用いた事前学習を回避して,BERTのアウト・オブ・ザ・ボックスの視覚能力について検討した。
テキスト生成のためのBERTベースのアーキテクチャであるBERT-genを導入する。
論文 参考訳(メタデータ) (2020-02-25T12:44:36Z) - Incorporating BERT into Neural Machine Translation [251.54280200353674]
本稿では,入力シーケンスの表現抽出にBERTを用いたBERT融合モデルを提案する。
我々は、教師付き(文レベルと文書レベルの翻訳を含む)、半教師なしおよび教師なしの機械翻訳の実験を行い、7つのベンチマークデータセットで最先端の結果を得る。
論文 参考訳(メタデータ) (2020-02-17T08:13:36Z) - Multilingual Denoising Pre-training for Neural Machine Translation [132.66750663226287]
mBART(mBART)は、大規模モノリンガルコーパスで事前訓練されたシーケンスからシーケンスまでの自動エンコーダである。
mBARTは、完全なシーケンス・ツー・シーケンスモデルを事前訓練する最初の方法の1つである。
論文 参考訳(メタデータ) (2020-01-22T18:59:17Z) - RobBERT: a Dutch RoBERTa-based Language Model [9.797319790710711]
我々はRoBERTaを使ってRobBERTと呼ばれるオランダ語のモデルをトレーニングします。
各種タスクにおけるその性能および微調整データセットサイズの重要性を計測する。
RobBERTは様々なタスクの最先端の結果を改善し、特に小さなデータセットを扱う場合、他のモデルよりもはるかに優れています。
論文 参考訳(メタデータ) (2020-01-17T13:25:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。