論文の概要: Dissecting Span Identification Tasks with Performance Prediction
- arxiv url: http://arxiv.org/abs/2010.02587v1
- Date: Tue, 6 Oct 2020 09:55:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 06:46:31.295405
- Title: Dissecting Span Identification Tasks with Performance Prediction
- Title(参考訳): 性能予測によるスパン識別タスクの分割
- Authors: Sean Papay and Roman Klinger and Sebastian Pad\'o
- Abstract要約: チャンキング、NER、コードスイッチング検出などのスパンIDタスクは、テキスト内の関連するスパンを識別し分類するためにモデルを要求する。
我々は、パフォーマンス予測を通じてIDタスクを解析し、ニューラルアーキテクチャが異なるタスクでどれだけうまく機能するかを推定する。
a) 性能予測を知らせるスパンIDタスクの重要な特性を特定し、(b) 英語データに対して大規模な実験を行い、アーキテクチャ選択を支援可能なスパンIDタスクのパフォーマンスを予測するモデルを構築し、(c) メタモデルのパラメータを調査し、モデルとタスク特性の相互作用に関する新たな洞察を得る。
- 参考スコア(独自算出の注目度): 10.759863489447204
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Span identification (in short, span ID) tasks such as chunking, NER, or
code-switching detection, ask models to identify and classify relevant spans in
a text. Despite being a staple of NLP, and sharing a common structure, there is
little insight on how these tasks' properties influence their difficulty, and
thus little guidance on what model families work well on span ID tasks, and
why. We analyze span ID tasks via performance prediction, estimating how well
neural architectures do on different tasks. Our contributions are: (a) we
identify key properties of span ID tasks that can inform performance
prediction; (b) we carry out a large-scale experiment on English data, building
a model to predict performance for unseen span ID tasks that can support
architecture choices; (c), we investigate the parameters of the meta model,
yielding new insights on how model and task properties interact to affect span
ID performance. We find, e.g., that span frequency is especially important for
LSTMs, and that CRFs help when spans are infrequent and boundaries
non-distinctive.
- Abstract(参考訳): チャンキング、NER、コードスイッチング検出などのスパン識別(略してスパンID)タスクは、テキスト内の関連するスパンの識別と分類をモデルに依頼する。
NLPの基盤であり、共通の構造を共有するにもかかわらず、これらのタスクのプロパティがそれらの困難にどのように影響するかについての洞察はほとんどなく、モデルファミリーがIDタスクにまたがってどのように機能するか、なぜなのかについてのガイダンスはほとんどない。
我々は、パフォーマンス予測を通じてIDタスクを解析し、ニューラルアーキテクチャが異なるタスクでどのように機能するかを推定する。
私たちの貢献は
(a)性能予測を通知できるスパンIDタスクのキープロパティを識別する。
b) 英語データに関する大規模実験を行い,アーキテクチャの選択をサポートする未認識のスパンidタスクのパフォーマンスを予測するモデルを構築した。
c) メタモデルのパラメータを調査し,モデルとタスク特性の相互作用がスパンid性能に与える影響について新たな知見を得た。
例えば、スパン周波数はLSTMにとって特に重要であり、スパンがまれで境界が不連続な場合にCRFが役立ちます。
関連論文リスト
- CRAFT Your Dataset: Task-Specific Synthetic Dataset Generation Through Corpus Retrieval and Augmentation [51.2289822267563]
合成データセットを生成するCRAFT(Corpus Retrieval and Augmentation for Fine-Tuning)を提案する。
我々は、大規模な公開ウェブクローラコーパスと類似性に基づく文書検索を用いて、他の関連する人文文書を検索する。
我々は,CRAFTが4つのタスクに対して,大規模タスク固有のトレーニングデータセットを効率的に生成できることを実証した。
論文 参考訳(メタデータ) (2024-09-03T17:54:40Z) - A Unified Causal View of Instruction Tuning [76.1000380429553]
メタ構造因果モデル(meta-SCM)を開発し、異なるNLPタスクをデータの単一因果構造の下で統合する。
主なアイデアは、タスク要求因果関係を学習し、タスクの予測にのみそれらを使用することである。
論文 参考訳(メタデータ) (2024-02-09T07:12:56Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - MulGT: Multi-task Graph-Transformer with Task-aware Knowledge Injection
and Domain Knowledge-driven Pooling for Whole Slide Image Analysis [17.098951643252345]
深層学習領域における自動診断を支援するためにWSI(Whole Slide Image)が広く用いられている。
特殊設計したグラフ変換器によるWSI解析のための新しいマルチタスクフレームワーク(MulGT)を提案する。
論文 参考訳(メタデータ) (2023-02-21T10:00:58Z) - Backbones-Review: Feature Extraction Networks for Deep Learning and Deep
Reinforcement Learning Approaches [3.255610188565679]
CNNは、大規模なデータサイズに取り組むだけでなく、特定のタスクのさまざまなシナリオをカバーすることができる。
多くのネットワークが提案され、あらゆるAIタスクでDLモデルに使用される有名なネットワークとなっている。
バックボーンは、他の多くのタスクでトレーニングされた既知のネットワークであり、その効果を実証する。
論文 参考訳(メタデータ) (2022-06-16T09:18:34Z) - Continual Object Detection via Prototypical Task Correlation Guided
Gating Mechanism [120.1998866178014]
pRotOtypeal taSk corrElaTion guided gaTingAnism (ROSETTA)による連続物体検出のためのフレキシブルなフレームワークを提案する。
具体的には、統一されたフレームワークはすべてのタスクで共有され、タスク対応ゲートは特定のタスクのサブモデルを自動的に選択するために導入されます。
COCO-VOC、KITTI-Kitchen、VOCのクラスインクリメンタル検出、および4つのタスクの逐次学習の実験により、ROSETTAが最先端のパフォーマンスを得ることが示された。
論文 参考訳(メタデータ) (2022-05-06T07:31:28Z) - End-to-end Person Search Sequentially Trained on Aggregated Dataset [1.9766522384767227]
本稿では,検出と特徴抽出を共同で計算するエンド・ツー・エンドのモデルを提案する。
コストのかかるIDアノテーションを使わずに、より多くの歩行者検出データセットを集約することで、共有機能マップがより汎用的であることを示す。
論文 参考訳(メタデータ) (2022-01-24T11:22:15Z) - KILT: a Benchmark for Knowledge Intensive Language Tasks [102.33046195554886]
知識集約型言語タスク(KILT)のベンチマークを示す。
KILTのすべてのタスクはウィキペディアのスナップショットと同じだ。
共有密度ベクトル指数とSeq2seqモデルとの結合が強いベースラインであることが分かる。
論文 参考訳(メタデータ) (2020-09-04T15:32:19Z) - Dynamic Feature Integration for Simultaneous Detection of Salient
Object, Edge and Skeleton [108.01007935498104]
本稿では,高次物体分割,エッジ検出,スケルトン抽出など,低レベルの3つの視覚問題を解く。
まず、これらのタスクで共有される類似点を示し、統一されたフレームワークの開発にどのように活用できるかを示す。
論文 参考訳(メタデータ) (2020-04-18T11:10:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。