論文の概要: Learning Semantic Role Labeling from Compatible Label Sequences
- arxiv url: http://arxiv.org/abs/2305.14600v1
- Date: Wed, 24 May 2023 00:46:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-05-25 20:59:09.512704
- Title: Learning Semantic Role Labeling from Compatible Label Sequences
- Title(参考訳): 適合ラベル配列から意味的役割ラベルを学習する
- Authors: Tao Li, Ghazaleh Kazeminejad, Susan W. Brown, Martha Palmer, Vivek
Srikumar
- Abstract要約: 本稿では,不整合なラベル配列から効率的に学習する方法の課題に対処する。
本稿では,VerbNetとPropBankのラベルを1つのシーケンスとして共同で扱う,シンプルで効果的なセットアップを提案する。
我々のモデルは、CoNLL05データセットにラベル付けしたVerbNetとPropBankのF1の最先端化を実現している。
- 参考スコア(独自算出の注目度): 37.0893799851239
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the question of how to efficiently learn from disjoint,
compatible label sequences. We argue that the compatible structures between
disjoint label sets help model learning and inference. We verify this
hypothesis on the task of semantic role labeling (SRL), specifically, tagging a
sentence with two role sequences: VerbNet arguments and PropBank arguments.
Prior work has shown that cross-task interaction improves performance. However,
the two tasks are still separately decoded, running the risk of generating
structurally inconsistent label sequences (as per lexicons like SEMLINK). To
eliminate this issue, we first propose a simple and effective setup that
jointly handles VerbNet and PropBank labels as one sequence. With this setup,
we show that enforcing SEMLINK constraints during decoding constantly improves
the overall F1. With special input constructions, our joint model infers
VerbNet arguments from PropBank arguments with over 99% accuracy. We also
propose a constrained marginal model that uses SEMLINK information during
training to further benefit from the large amounts of PropBank-only data. Our
models achieve state-of-the-art F1's on VerbNet and PropBank argument labeling
on the CoNLL05 dataset with strong out-of-domain generalization.
- Abstract(参考訳): 本稿では,互換性のないラベル配列から効率的に学習する方法について述べる。
解離ラベルセット間の互換構造は、学習と推論をモデル化するのに役立ちます。
本稿では,この仮説を意味的役割ラベル付け(SRL)タスク上で検証する。具体的には,文に2つの役割列(VerbNet argumentsとPropBank arguments)をタグ付けする。
以前の研究は、タスク間のインタラクションがパフォーマンスを改善することを示した。
しかし、2つのタスクは別々にデコードされ、構造的に一貫性のないラベルシーケンスを生成するリスクがある(semlinkのようなレキシコン)。
この問題を取り除くため,まず,動詞ネットラベルとプロップバンクラベルを1つのシーケンスとして共同で扱う,シンプルで効果的なセットアップを提案する。
この設定により、デコード中のSEMLINK制約の強制は、F1全体を常に改善することを示す。
特殊入力構成では,99%以上の精度でプロップバンク引数から動詞引数を推定する。
また,トレーニング中にsemlink情報を用いて,プロップバンクのみの大量のデータからさらに恩恵を受ける制約付き限界モデルを提案する。
我々のモデルは,ドメイン外一般化の強いCoNLL05データセット上で,VerbNet と PropBank の引数ラベルを用いた最先端 F1 を実現する。
関連論文リスト
- Improving Cross-task Generalization of Unified Table-to-text Models with
Compositional Task Configurations [63.04466647849211]
メソッドは通常、タスク情報をエンコーダのプレフィックスとして単純なデータセット名でエンコードする。
本稿では,エンコーダがタスク間の一般化を改善するためのプロンプトセットであるコンポジションタスク構成を提案する。
これは、モデルがトレーニング中に異なるタスク間で共有知識をより良く学習できるだけでなく、新しい構成を構築することでモデルを制御できることを示している。
論文 参考訳(メタデータ) (2022-12-17T02:20:14Z) - Few-Shot Nested Named Entity Recognition [4.8693196802491405]
本論文は,数発のネストNERタスクを研究対象とする最初の論文である。
本稿では、コンテキスト依存を学習し、ネストしたエンティティを識別するためのBiaffine-based Contrastive Learning (BCL)フレームワークを提案する。
BCLはF1スコアで1ショットと5ショットの3つのベースラインモデルを上回った。
論文 参考訳(メタデータ) (2022-12-02T03:42:23Z) - BOBA: Byzantine-Robust Federated Learning with Label Skewness [39.75185862573534]
連合学習において、既存のロバストアグリゲーションルール(AGR)は、IID設定でビザンツ攻撃と戦う。
ラベルスキューネス(ラベルスキューネス)は、より現実的で挑戦的な非IID設定であり、各クライアントはいくつかのデータクラスにしかアクセスできない。
この設定では、最先端のAGRは選択バイアスに悩まされ、特定のクラスのパフォーマンスが大幅に低下する。
これらの制約に対処するために,BOBAという2段階の効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-08-27T05:54:43Z) - Cross-Model Pseudo-Labeling for Semi-Supervised Action Recognition [98.25592165484737]
CMPL(Cross-Model Pseudo-Labeling)と呼ばれる,より効果的な擬似ラベル方式を提案する。
CMPLは、それぞれRGBモダリティとラベル付きデータのみを使用して、Kinetics-400とUCF-101のTop-1の精度を17.6%と25.1%で達成している。
論文 参考訳(メタデータ) (2021-12-17T18:59:41Z) - Pack Together: Entity and Relation Extraction with Levitated Marker [61.232174424421025]
エンコーダにマーカを戦略的にパッケージ化することにより,スパン(ペア)間の依存関係を検討するために,Packed Levitated Markersという新しいスパン表現手法を提案する。
実験の結果,3つの平坦なNERタスクにおいて,有望なマーカーが充填されたモデルの方がシーケンスラベルモデルよりも0.4%-1.9%優れ,トークンコンキャットモデルを6つのNERベンチマークで上回っていることがわかった。
論文 参考訳(メタデータ) (2021-09-13T15:38:13Z) - X2Parser: Cross-Lingual and Cross-Domain Framework for Task-Oriented
Compositional Semantic Parsing [51.81533991497547]
タスク指向コンポジションセマンティックパーシング(TCSP)は複雑なネストされたユーザクエリを処理する。
本報告では,TCSPの変換可能なクロスランガルとクロスドメインを比較した。
本稿では,フラット化意図とスロット表現を別々に予測し,両方の予測タスクをシーケンスラベリング問題にキャストすることを提案する。
論文 参考訳(メタデータ) (2021-06-07T16:40:05Z) - All NLP Tasks Are Generation Tasks: A General Pretraining Framework [29.530780978381173]
本稿では,この課題に対処する新しい事前学習フレームワーク GLM (General Language Model) を提案する。
先行研究と比較して,(1)単一事前学習モデルによる分類,無条件生成,および条件生成のタスクにおいて良好に機能する,(2)事前訓練と微粒化の一貫性の向上による分類上のbertモデルを上回る,(3)下流タスクで不可欠な可変長ブランクフィリングを自然に処理する,の3つの大きなメリットがある。
論文 参考訳(メタデータ) (2021-03-18T16:30:26Z) - Logic Constrained Pointer Networks for Interpretable Textual Similarity [11.142649867439406]
本稿では, セシネルゲーティング機能を備えた新しいポインターネットワークモデルを導入し, 構成チャンクを整列させる。
両文の相違を等しく補償し、アライメントが双方向であることを保証するために、損失関数によるこのベースモデルを改善する。
このモデルは、チャンクアライメントタスクのためのベンチマークSemEvalデータセットにおいて、97.73と96.32のF1スコアを達成する。
論文 参考訳(メタデータ) (2020-07-15T13:01:44Z) - Low Resource Multi-Task Sequence Tagging -- Revisiting Dynamic
Conditional Random Fields [67.51177964010967]
異なるタスクに対するラベルシーケンス間の依存関係を利用する低リソースマルチタスクシーケンスタグの異なるモデルを比較した。
タスク予測間の相互依存性の明示的モデリングは、通常のマルチタスクモデルと同様にシングルタスクよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-01T07:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。