論文の概要: Frustratingly Simple Entity Tracking with Effective Use of Multi-Task
Learning Models
- arxiv url: http://arxiv.org/abs/2210.06444v1
- Date: Wed, 12 Oct 2022 17:46:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 14:20:01.967788
- Title: Frustratingly Simple Entity Tracking with Effective Use of Multi-Task
Learning Models
- Title(参考訳): マルチタスク学習モデルの有効利用によるイライラし易いエンティティトラッキング
- Authors: Janvijay Singh, Fan Bai, Zhen Wang
- Abstract要約: SETは、手続きテキストにおけるエンティティトラッキングに対して、非常に単純かつ効果的なアプローチである。
ドメイン固有の事前トレーニングを必要とする最先端エンティティ追跡モデルと比較して、SETは単にカスタマイズされたフォーマットを備えた既製のT5を微調整する。
我々は,T5の教師付きマルチタスク学習が,SETの成功に重要な役割を担っていることを示す。
- 参考スコア(独自算出の注目度): 5.9585526937249
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present SET, a frustratingly Simple-yet-effective approach for Entity
Tracking in procedural text. Compared with state-of-the-art entity tracking
models that require domain-specific pre-training, SET simply fine-tunes
off-the-shelf T5 with customized formats and gets comparable or even better
performance on multiple datasets. Concretely, SET tackles the state and
location prediction in entity tracking independently and formulates them as
multi-choice and extractive QA problems, respectively. Through a series of
careful analyses, we show that T5's supervised multi-task learning plays an
important role in the success of SET. In addition, we reveal that SET has a
strong capability of understanding implicit entity transformations, suggesting
that multi-task transfer learning should be further explored in future entity
tracking research.
- Abstract(参考訳): SETは、手続きテキストにおけるエンティティ追跡に対して、フラストレーション的に単純かつ効果的なアプローチである。
ドメイン固有の事前トレーニングを必要とする最先端のエンティティトラッキングモデルと比較すると、カスタマイズされたフォーマットで既製のt5を微調整するだけで、複数のデータセットで同等あるいはさらに優れたパフォーマンスが得られる。
具体的には、SETは、エンティティトラッキングにおける状態と位置の予測に独立に取り組み、それらをそれぞれ多重選択および抽出QA問題として定式化する。
本稿では,T5の教師付きマルチタスク学習が,SETの成功に重要な役割を担っていることを示す。
さらに,SETには暗黙的な実体変換を理解する強力な能力があることが明らかとなり,将来的な実体追跡研究においてマルチタスク変換学習がさらに検討されるべきであることが示唆された。
関連論文リスト
- TAT-LLM: A Specialized Language Model for Discrete Reasoning over Tabular and Textual Data [73.29220562541204]
我々は,言語モデル(LLM)の驚くべきパワーを活用して課題を解決することを検討する。
LLaMA2を微調整し,既存のエキスパートアノテートデータセットから自動生成したトレーニングデータを用いてTAT-LLM言語モデルを開発する。
論文 参考訳(メタデータ) (2024-01-24T04:28:50Z) - Diffusion Model is an Effective Planner and Data Synthesizer for
Multi-Task Reinforcement Learning [101.66860222415512]
Multi-Task Diffusion Model (textscMTDiff) は、トランスフォーマーのバックボーンを組み込んだ拡散に基づく手法であり、生成計画とデータ合成のための素早い学習を行う。
生成計画において、textscMTDiffはMeta-World上の50のタスクとMaze2D上の8のマップで最先端のアルゴリズムより優れています。
論文 参考訳(メタデータ) (2023-05-29T05:20:38Z) - Task Aware Feature Extraction Framework for Sequential Dependence
Multi-Task Learning [1.0765359420035392]
我々は厳密な数学的観点から逐次依存型MLLを解析する。
逐次依存型MLLのためのタスク認識特徴抽出(TAFE)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-06T13:12:59Z) - Effective Cross-Task Transfer Learning for Explainable Natural Language
Inference with T5 [50.574918785575655]
2つのタスクのパフォーマンス向上という文脈において、逐次微調整とマルチタスク学習のモデルを比較した。
この結果から,2つのタスクのうち,第1のタスクにおいて逐次マルチタスク学習は良好に調整できるが,第2のタスクでは性能が低下し,過度な適合に苦しむことが明らかとなった。
論文 参考訳(メタデータ) (2022-10-31T13:26:08Z) - Multi-task Active Learning for Pre-trained Transformer-based Models [22.228551277598804]
複数のタスクをひとつのモデルで共同で学習するマルチタスク学習により、NLPモデルは複数のアノテーションから情報を共有することができる。
このテクニックでは、コストがかかり、面倒な複数のアノテーションスキームで同じテキストに注釈を付ける必要がある。
アクティブラーニング(AL)は、ラベルなし例を反復的に選択することで、アノテーションプロセスの最適化を実証している。
論文 参考訳(メタデータ) (2022-08-10T14:54:13Z) - FETA: A Benchmark for Few-Sample Task Transfer in Open-Domain Dialogue [70.65782786401257]
本研究は、オープンドメイン対話における少数サンプルタスク転送のベンチマークであるFETAを導入することにより、対話型タスク転送について検討する。
FETAには10タスクと7タスクがアノテートされた2つの基礎的な会話が含まれており、データセット内タスク転送の研究を可能にする。
3つの人気のある言語モデルと3つの学習アルゴリズムを用いて、132のソースターゲットタスクペア間の転送可能性を分析する。
論文 参考訳(メタデータ) (2022-05-12T17:59:00Z) - CINS: Comprehensive Instruction for Few-shot Learning in Task-oriented
Dialog Systems [56.302581679816775]
本稿では,タスク固有の命令でPLMを利用する包括的インストラクション(CINS)を提案する。
命令のスキーマ(定義、制約、プロンプト)と、ToDの3つの重要な下流タスクに対するカスタマイズされた実現を設計する。
これらのToDタスクに対して,小さな検証データを用いた現実的な数ショット学習シナリオで実験を行った。
論文 参考訳(メタデータ) (2021-09-10T03:23:06Z) - Weighted Training for Cross-Task Learning [71.94908559469475]
クロスタスク学習のための重み付きトレーニングアルゴリズムであるTarget-Aware Weighted Training (TAWT)を紹介する。
TAWTは実装が容易で、計算効率が高く、ハイパーパラメータチューニングがほとんど必要とせず、漸近的でない学習理論の保証を享受できることを示す。
副産物として、提案された表現に基づくタスク距離は、クロスタスク学習のいくつかの重要な側面について理論的に原則化された方法で推論することができる。
論文 参考訳(メタデータ) (2021-05-28T20:27:02Z) - Learning Modality-Specific Representations with Self-Supervised
Multi-Task Learning for Multimodal Sentiment Analysis [11.368438990334397]
我々は,独立した一助的指導を受けるための自己指導型学習戦略を開発する。
我々は3つの公開マルチモーダルベースラインデータセットについて広範な実験を行った。
提案手法は,人間の注釈付きアンモダルラベルと同等の性能を達成している。
論文 参考訳(メタデータ) (2021-02-09T14:05:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。