論文の概要: Learning Semantic Role Labeling from Compatible Label Sequences
- arxiv url: http://arxiv.org/abs/2305.14600v3
- Date: Thu, 19 Oct 2023 22:34:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 05:56:55.362781
- Title: Learning Semantic Role Labeling from Compatible Label Sequences
- Title(参考訳): 適合ラベル配列から意味的役割ラベルを学習する
- Authors: Tao Li, Ghazaleh Kazeminejad, Susan W. Brown, Martha Palmer, Vivek
Srikumar
- Abstract要約: VerbNetとPropBankのラベルを1つのシーケンスとしてモデル化するフレームワークについて述べる。
我々のモデルは最先端のF1を達成し, 3.5 (VerbNet) と0.8 (PropBank) で先行最高のドメインモデルを上回った。
- 参考スコア(独自算出の注目度): 32.33168198728843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic role labeling (SRL) has multiple disjoint label sets, e.g., VerbNet
and PropBank. Creating these datasets is challenging, therefore a natural
question is how to use each one to help the other. Prior work has shown that
cross-task interaction helps, but only explored multitask learning so far. A
common issue with multi-task setup is that argument sequences are still
separately decoded, running the risk of generating structurally inconsistent
label sequences (as per lexicons like Semlink). In this paper, we eliminate
such issue with a framework that jointly models VerbNet and PropBank labels as
one sequence. In this setup, we show that enforcing Semlink constraints during
decoding constantly improves the overall F1. With special input constructions,
our joint model infers VerbNet arguments from given PropBank arguments with
over 99 F1. For learning, we propose a constrained marginal model that learns
with knowledge defined in Semlink to further benefit from the large amounts of
PropBank-only data. On the joint benchmark based on CoNLL05, our models achieve
state-of-the-art F1's, outperforming the prior best in-domain model by 3.5
(VerbNet) and 0.8 (PropBank). For out-of-domain generalization, our models
surpass the prior best by 3.4 (VerbNet) and 0.2 (PropBank).
- Abstract(参考訳): 意味的役割ラベリング (srl) は複数の異なるラベルセット(例えば verbnet や propbank)を持っている。
これらのデータセットの作成は難しいため、互いにどのように助け合うかという自然な疑問がある。
以前の研究では、クロスタスクインタラクションは役に立つが、これまではマルチタスク学習のみを探求している。
マルチタスク設定の一般的な問題は、引数シーケンスが別々にデコードされていることであり、構造的に一貫性のないラベルシーケンスを生成するリスクがある(semlinkのようなレキシコン)。
本稿では,VerbNetとPropBankのラベルを1つのシーケンスとしてモデル化するフレームワークを用いて,このような問題を解消する。
この設定では、デコード中のSemlink制約の強制は、F1全体を改善する。
特別な入力構成により,99 f1以上のpropbank引数から動詞引数を推測する。
学習のために,Semlinkで定義された知識を用いて学習し,PropBankのみの膨大なデータからさらに恩恵を受ける制約付き限界モデルを提案する。
conll05に基づくジョイントベンチマークでは,最先端のf1モデルを実現し,従来の最良ドメインモデルである3.5 (verbnet) と0.8 (propbank) を上回った。
ドメイン外一般化では、当社のモデルは以前の3.4(VerbNet)と0.2(PropBank)を上回ります。
関連論文リスト
- Improving Cross-task Generalization of Unified Table-to-text Models with
Compositional Task Configurations [63.04466647849211]
メソッドは通常、タスク情報をエンコーダのプレフィックスとして単純なデータセット名でエンコードする。
本稿では,エンコーダがタスク間の一般化を改善するためのプロンプトセットであるコンポジションタスク構成を提案する。
これは、モデルがトレーニング中に異なるタスク間で共有知識をより良く学習できるだけでなく、新しい構成を構築することでモデルを制御できることを示している。
論文 参考訳(メタデータ) (2022-12-17T02:20:14Z) - Few-Shot Nested Named Entity Recognition [4.8693196802491405]
本論文は,数発のネストNERタスクを研究対象とする最初の論文である。
本稿では、コンテキスト依存を学習し、ネストしたエンティティを識別するためのBiaffine-based Contrastive Learning (BCL)フレームワークを提案する。
BCLはF1スコアで1ショットと5ショットの3つのベースラインモデルを上回った。
論文 参考訳(メタデータ) (2022-12-02T03:42:23Z) - BOBA: Byzantine-Robust Federated Learning with Label Skewness [39.75185862573534]
連合学習において、既存のロバストアグリゲーションルール(AGR)は、IID設定でビザンツ攻撃と戦う。
ラベルスキューネス(ラベルスキューネス)は、より現実的で挑戦的な非IID設定であり、各クライアントはいくつかのデータクラスにしかアクセスできない。
この設定では、最先端のAGRは選択バイアスに悩まされ、特定のクラスのパフォーマンスが大幅に低下する。
これらの制約に対処するために,BOBAという2段階の効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-08-27T05:54:43Z) - Cross-Model Pseudo-Labeling for Semi-Supervised Action Recognition [98.25592165484737]
CMPL(Cross-Model Pseudo-Labeling)と呼ばれる,より効果的な擬似ラベル方式を提案する。
CMPLは、それぞれRGBモダリティとラベル付きデータのみを使用して、Kinetics-400とUCF-101のTop-1の精度を17.6%と25.1%で達成している。
論文 参考訳(メタデータ) (2021-12-17T18:59:41Z) - Pack Together: Entity and Relation Extraction with Levitated Marker [61.232174424421025]
エンコーダにマーカを戦略的にパッケージ化することにより,スパン(ペア)間の依存関係を検討するために,Packed Levitated Markersという新しいスパン表現手法を提案する。
実験の結果,3つの平坦なNERタスクにおいて,有望なマーカーが充填されたモデルの方がシーケンスラベルモデルよりも0.4%-1.9%優れ,トークンコンキャットモデルを6つのNERベンチマークで上回っていることがわかった。
論文 参考訳(メタデータ) (2021-09-13T15:38:13Z) - X2Parser: Cross-Lingual and Cross-Domain Framework for Task-Oriented
Compositional Semantic Parsing [51.81533991497547]
タスク指向コンポジションセマンティックパーシング(TCSP)は複雑なネストされたユーザクエリを処理する。
本報告では,TCSPの変換可能なクロスランガルとクロスドメインを比較した。
本稿では,フラット化意図とスロット表現を別々に予測し,両方の予測タスクをシーケンスラベリング問題にキャストすることを提案する。
論文 参考訳(メタデータ) (2021-06-07T16:40:05Z) - All NLP Tasks Are Generation Tasks: A General Pretraining Framework [29.530780978381173]
本稿では,この課題に対処する新しい事前学習フレームワーク GLM (General Language Model) を提案する。
先行研究と比較して,(1)単一事前学習モデルによる分類,無条件生成,および条件生成のタスクにおいて良好に機能する,(2)事前訓練と微粒化の一貫性の向上による分類上のbertモデルを上回る,(3)下流タスクで不可欠な可変長ブランクフィリングを自然に処理する,の3つの大きなメリットがある。
論文 参考訳(メタデータ) (2021-03-18T16:30:26Z) - Logic Constrained Pointer Networks for Interpretable Textual Similarity [11.142649867439406]
本稿では, セシネルゲーティング機能を備えた新しいポインターネットワークモデルを導入し, 構成チャンクを整列させる。
両文の相違を等しく補償し、アライメントが双方向であることを保証するために、損失関数によるこのベースモデルを改善する。
このモデルは、チャンクアライメントタスクのためのベンチマークSemEvalデータセットにおいて、97.73と96.32のF1スコアを達成する。
論文 参考訳(メタデータ) (2020-07-15T13:01:44Z) - Low Resource Multi-Task Sequence Tagging -- Revisiting Dynamic
Conditional Random Fields [67.51177964010967]
異なるタスクに対するラベルシーケンス間の依存関係を利用する低リソースマルチタスクシーケンスタグの異なるモデルを比較した。
タスク予測間の相互依存性の明示的モデリングは、通常のマルチタスクモデルと同様にシングルタスクよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-01T07:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。