論文の概要: A Cross-Task Analysis of Text Span Representations
- arxiv url: http://arxiv.org/abs/2006.03866v1
- Date: Sat, 6 Jun 2020 13:37:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 21:42:21.672004
- Title: A Cross-Task Analysis of Text Span Representations
- Title(参考訳): テキストスパン表現のクロスタスク解析
- Authors: Shubham Toshniwal, Haoyue Shi, Bowen Shi, Lingyu Gao, Karen Livescu,
Kevin Gimpel
- Abstract要約: 最適なスパン表現はタスクによって異なり、個々のタスクの異なる側面でも異なることが分かる。
また、スパン表現の選択は、微調整エンコーダよりも、固定された事前訓練エンコーダによる影響が大きいことも判明した。
- 参考スコア(独自算出の注目度): 52.28565379517174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many natural language processing (NLP) tasks involve reasoning with textual
spans, including question answering, entity recognition, and coreference
resolution. While extensive research has focused on functional architectures
for representing words and sentences, there is less work on representing
arbitrary spans of text within sentences. In this paper, we conduct a
comprehensive empirical evaluation of six span representation methods using
eight pretrained language representation models across six tasks, including two
tasks that we introduce. We find that, although some simple span
representations are fairly reliable across tasks, in general the optimal span
representation varies by task, and can also vary within different facets of
individual tasks. We also find that the choice of span representation has a
bigger impact with a fixed pretrained encoder than with a fine-tuned encoder.
- Abstract(参考訳): 多くの自然言語処理(NLP)タスクは、質問応答、エンティティ認識、コア参照解決を含むテキストスパンによる推論を含む。
広範囲にわたる研究は、単語や文を表現する機能的アーキテクチャに焦点を合わせてきたが、文内の任意のテキストスパンを表現する作業は少ない。
本稿では,6つのタスクにまたがる8つの事前学習した言語表現モデルを用いて,6つのスパン表現法を包括的に実験的に評価する。
いくつかの単純なスパン表現はタスク間でかなり信頼できるが、一般的に最適なスパン表現はタスクによって異なり、個々のタスクの異なる側面内でも変化する。
また,スパン表現の選択は,微調整エンコーダよりも固定事前学習エンコーダに大きな影響を与えることがわかった。
関連論文リスト
- Multilingual Multi-Figurative Language Detection [14.799109368073548]
比喩的言語理解は多言語環境では 非常に過小評価されています
我々は,多言語多言語言語モデリングを導入し,文レベル図形言語検出のためのベンチマークを提供する。
テンプレートに基づく即時学習に基づく図形言語検出のためのフレームワークを開発する。
論文 参考訳(メタデータ) (2023-05-31T18:52:41Z) - Learning Easily Updated General Purpose Text Representations with
Adaptable Task-Specific Prefixes [22.661527526471996]
ダウンストリームタスク毎にトレーニング済みの大きな言語モデルを微調整すると、計算負荷が発生する。
そこで本研究では,ソースタスクを用いてテキストの固定表現を学習するためのプレフィックスベースの手法を提案する。
論文 参考訳(メタデータ) (2023-05-22T21:31:03Z) - Universal Multimodal Representation for Language Understanding [110.98786673598015]
本研究は,一般的なNLPタスクの補助信号として視覚情報を利用する新しい手法を提案する。
各文に対して、まず、既存の文-画像ペア上で抽出された軽トピック-画像検索テーブルから、フレキシブルな画像を検索する。
そして、テキストと画像はそれぞれトランスフォーマーエンコーダと畳み込みニューラルネットワークによって符号化される。
論文 参考訳(メタデータ) (2023-01-09T13:54:11Z) - Effective Cross-Task Transfer Learning for Explainable Natural Language
Inference with T5 [50.574918785575655]
2つのタスクのパフォーマンス向上という文脈において、逐次微調整とマルチタスク学習のモデルを比較した。
この結果から,2つのタスクのうち,第1のタスクにおいて逐次マルチタスク学習は良好に調整できるが,第2のタスクでは性能が低下し,過度な適合に苦しむことが明らかとなった。
論文 参考訳(メタデータ) (2022-10-31T13:26:08Z) - Improving Multi-task Generalization Ability for Neural Text Matching via
Prompt Learning [54.66399120084227]
最近の最先端のニューラルテキストマッチングモデル(PLM)は、様々なタスクに一般化することが難しい。
我々は、特殊化一般化訓練戦略を採用し、それをMatch-Promptと呼ぶ。
特殊化段階では、異なるマッチングタスクの記述はいくつかのプロンプトトークンにマッピングされる。
一般化段階において、テキストマッチングモデルは、多種多様なマッチングタスクを訓練することにより、本質的なマッチング信号を探索する。
論文 参考訳(メタデータ) (2022-04-06T11:01:08Z) - Grad2Task: Improved Few-shot Text Classification Using Gradients for
Task Representation [24.488427641442694]
本稿では,数ショットのテキスト分類のための条件付きニューラルプロセスに基づく新しいアプローチを提案する。
私たちのキーとなるアイデアは、ベースモデルからの勾配情報を使って各タスクを表現することです。
我々のアプローチは、従来の微調整、シーケンシャルトランスファーラーニング、そして最先端のメタラーニングアプローチよりも優れています。
論文 参考訳(メタデータ) (2022-01-27T15:29:30Z) - Reciprocal Feature Learning via Explicit and Implicit Tasks in Scene
Text Recognition [60.36540008537054]
本研究では,従来のテキスト認識における文字数カウントという暗黙のタスクを,追加的な注釈コストなしで発掘する。
両タスクの機能を適切に活用するために,2分岐の相反的特徴学習フレームワークを設計する。
7つのベンチマークの実験では、テキスト認識と新しい文字カウントタスクの両方において提案手法の利点が示されている。
論文 参考訳(メタデータ) (2021-05-13T12:27:35Z) - Intrinsic Probing through Dimension Selection [69.52439198455438]
現代のほとんどのNLPシステムは、様々なタスクにおいて驚くほど高いパフォーマンスが得られる事前訓練された文脈表現を使用している。
このような高いパフォーマンスは、ある種の言語構造がこれらの表現に根ざしない限りはあり得ず、それを探究する研究が盛んに行われている。
本稿では,言語情報が表現内でどのように構造化されているかを示す内在的探索と,先行研究で広く普及している外在的探索とを区別し,抽出に成功したことを示すことによって,そのような情報の存在を主張するのみである。
論文 参考訳(メタデータ) (2020-10-06T15:21:08Z) - Evaluating Multimodal Representations on Visual Semantic Textual
Similarity [22.835699807110018]
本稿では,新しいタスクであるVisual Semantic Textual similarity (vSTS)を提案する。
単純なマルチモーダル表現を用いた実験により、画像表現の追加はテキストのみの表現よりも推論が優れていることが示された。
我々の研究は、視覚情報のテキスト推論への貢献が成功したことを初めて示しており、より複雑なマルチモーダル表現オプションの余地は十分にある。
論文 参考訳(メタデータ) (2020-04-04T09:03:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。