論文の概要: Effective Cross-Task Transfer Learning for Explainable Natural Language
Inference with T5
- arxiv url: http://arxiv.org/abs/2210.17301v1
- Date: Mon, 31 Oct 2022 13:26:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 17:18:14.062774
- Title: Effective Cross-Task Transfer Learning for Explainable Natural Language
Inference with T5
- Title(参考訳): t5を用いた自然言語推論のための効果的なクロスタスク転送学習
- Authors: Irina Bigoulaeva, Rachneet Sachdeva, Harish Tayyar Madabushi, Aline
Villavicencio and Iryna Gurevych
- Abstract要約: 2つのタスクのパフォーマンス向上という文脈において、逐次微調整とマルチタスク学習のモデルを比較した。
この結果から,2つのタスクのうち,第1のタスクにおいて逐次マルチタスク学習は良好に調整できるが,第2のタスクでは性能が低下し,過度な適合に苦しむことが明らかとなった。
- 参考スコア(独自算出の注目度): 50.574918785575655
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We compare sequential fine-tuning with a model for multi-task learning in the
context where we are interested in boosting performance on two tasks, one of
which depends on the other. We test these models on the FigLang2022 shared task
which requires participants to predict language inference labels on figurative
language along with corresponding textual explanations of the inference
predictions. Our results show that while sequential multi-task learning can be
tuned to be good at the first of two target tasks, it performs less well on the
second and additionally struggles with overfitting. Our findings show that
simple sequential fine-tuning of text-to-text models is an extraordinarily
powerful method for cross-task knowledge transfer while simultaneously
predicting multiple interdependent targets. So much so, that our best model
achieved the (tied) highest score on the task.
- Abstract(参考訳): 連続的な微調整とマルチタスク学習のモデルを比較し,2つのタスクのパフォーマンス向上に関心がある状況において,その一方が他方に依存している。
これらのモデルをFigLang2022共有タスクでテストし、このタスクでは、参加者は、図形言語上の言語推論ラベルを、対応するテキストによる推論予測と合わせて予測する必要がある。
その結果,2つの対象タスクの1つで逐次的マルチタスク学習をチューニングできるが,2つ目では性能が低下し,さらにオーバーフィットに苦しむことが分かった。
以上の結果から,テキスト対テキストモデルの単純な逐次的微調整は,複数の相互依存的目標を同時に予測しながら,タスク間の知識伝達を行うための極めて強力な手法であることが示された。
ですから,私たちの最高のモデルは,そのタスクで最高のスコアを獲得しました。
関連論文リスト
- SpeechVerse: A Large-scale Generalizable Audio Language Model [38.67969337605572]
SpeechVerseは堅牢なマルチタスクトレーニングおよびカリキュラム学習フレームワークである。
学習可能なパラメータの小さなセットを通じて、事前訓練された音声とテキスト基礎モデルを組み合わせる。
実験により、我々のマルチタスクSpeechVerseモデルは、従来のタスク固有のベースラインよりも11タスク中9タスクの方が優れていることが判明した。
論文 参考訳(メタデータ) (2024-05-14T03:33:31Z) - TIMIT Speaker Profiling: A Comparison of Multi-task learning and Single-task learning Approaches [27.152245569974678]
本研究は、TIMITデータセット上の4つの話者プロファイリングタスクを深層学習技術を用いて探索する。
マルチタスク学習とシングルタスクモデルの可能性と課題を強調します。
論文 参考訳(メタデータ) (2024-04-18T10:59:54Z) - Rethinking and Improving Multi-task Learning for End-to-end Speech
Translation [51.713683037303035]
異なる時間とモジュールを考慮したタスク間の整合性について検討する。
テキストエンコーダは、主にクロスモーダル変換を容易にするが、音声におけるノイズの存在は、テキストと音声表現の一貫性を妨げる。
長さと表現の差を軽減し,モーダルギャップを橋渡しする,STタスクのための改良型マルチタスク学習(IMTL)手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T08:48:46Z) - Conciseness: An Overlooked Language Task [11.940413163824887]
タスクを定義し、要約や単純化といった関連するタスクとは異なることを示す。
大規模なニューラルネットワークモデルによるゼロショットセットアップがよく機能しない場合、簡潔性は難しい課題であることを示す。
論文 参考訳(メタデータ) (2022-11-08T09:47:11Z) - FETA: A Benchmark for Few-Sample Task Transfer in Open-Domain Dialogue [70.65782786401257]
本研究は、オープンドメイン対話における少数サンプルタスク転送のベンチマークであるFETAを導入することにより、対話型タスク転送について検討する。
FETAには10タスクと7タスクがアノテートされた2つの基礎的な会話が含まれており、データセット内タスク転送の研究を可能にする。
3つの人気のある言語モデルと3つの学習アルゴリズムを用いて、132のソースターゲットタスクペア間の転送可能性を分析する。
論文 参考訳(メタデータ) (2022-05-12T17:59:00Z) - Improving Multi-task Generalization Ability for Neural Text Matching via
Prompt Learning [54.66399120084227]
最近の最先端のニューラルテキストマッチングモデル(PLM)は、様々なタスクに一般化することが難しい。
我々は、特殊化一般化訓練戦略を採用し、それをMatch-Promptと呼ぶ。
特殊化段階では、異なるマッチングタスクの記述はいくつかのプロンプトトークンにマッピングされる。
一般化段階において、テキストマッチングモデルは、多種多様なマッチングタスクを訓練することにより、本質的なマッチング信号を探索する。
論文 参考訳(メタデータ) (2022-04-06T11:01:08Z) - Re-framing Incremental Deep Language Models for Dialogue Processing with
Multi-task Learning [14.239355474794142]
本稿では,1つのインクリメンタル対話処理モデルのトレーニングを可能にするマルチタスク学習フレームワークを提案する。
これらのタスクは、タスクからのノイズの重大度に依存する各タスクの最適貢献により、互いに正の帰納バイアスを与えることを示す。
論文 参考訳(メタデータ) (2020-11-13T04:31:51Z) - Learning Modality Interaction for Temporal Sentence Localization and
Event Captioning in Videos [76.21297023629589]
そこで本稿では,ビデオの各対のモダリティの相補的情報をよりよく活用するために,ペアワイズなモダリティ相互作用を学習するための新しい手法を提案する。
提案手法は,4つの標準ベンチマークデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-28T12:40:59Z) - Temporally Correlated Task Scheduling for Sequence Learning [143.70523777803723]
多くのアプリケーションにおいて、シーケンス学習タスクは通常、複数の時間的に相関した補助タスクと関連付けられている。
シーケンス学習に学習可能なスケジューラを導入し、トレーニングのための補助的なタスクを適応的に選択できる。
本手法は,同時翻訳とストックトレンド予測の性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-07-10T10:28:54Z) - Modelling Latent Skills for Multitask Language Generation [15.126163032403811]
マルチタスク条件言語生成のための生成モデルを提案する。
我々の指導的仮説は、共通の潜在スキルの集合が、多くの異なる言語生成タスクの根底にあるというものである。
このタスク埋め込み空間を潜在変数列列列モデルにおける潜在変数としてインスタンス化する。
論文 参考訳(メタデータ) (2020-02-21T20:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。