論文の概要: TLAG: An Informative Trigger and Label-Aware Knowledge Guided Model for
Dialogue-based Relation Extraction
- arxiv url: http://arxiv.org/abs/2303.17119v1
- Date: Thu, 30 Mar 2023 03:10:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 14:34:49.762571
- Title: TLAG: An Informative Trigger and Label-Aware Knowledge Guided Model for
Dialogue-based Relation Extraction
- Title(参考訳): TLAG:対話型関係抽出のための情報トリガーとラベル認識知識ガイドモデル
- Authors: Hao An, Dongsheng Chen, Weiyuan Xu, Zhihong Zhu, Yuexian Zou
- Abstract要約: 対話に基づく関係抽出(DRE)は、対話で言及される引数ペアの関係型を予測することを目的としている。
本稿では,トリガとラベル認識の知識をフル活用して関係抽出を導くTLAGを提案する。
DialogREデータセットの実験結果から,私たちのTLAGはベースラインモデルよりも優れています。
- 参考スコア(独自算出の注目度): 43.98737106776455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dialogue-based Relation Extraction (DRE) aims to predict the relation type of
argument pairs that are mentioned in dialogue. The latest trigger-enhanced
methods propose trigger prediction tasks to promote DRE. However, these methods
are not able to fully leverage the trigger information and even bring noise to
relation extraction. To solve these problems, we propose TLAG, which fully
leverages the trigger and label-aware knowledge to guide the relation
extraction. First, we design an adaptive trigger fusion module to fully
leverage the trigger information. Then, we introduce label-aware knowledge to
further promote our model's performance. Experimental results on the DialogRE
dataset show that our TLAG outperforms the baseline models, and detailed
analyses demonstrate the effectiveness of our approach.
- Abstract(参考訳): 対話に基づく関係抽出(dre)は、対話で言及される議論ペアの関係タイプを予測することを目的としている。
最新のトリガー強化手法は、DREを促進するトリガー予測タスクを提案する。
しかし、これらの手法はトリガー情報を完全に活用できず、関係抽出にノイズをもたらすこともできない。
これらの問題を解決するため,本論文では,トリガとラベル認識の知識をフル活用して関係抽出を導くTLAGを提案する。
まず, トリガ情報を完全に活用する適応型トリガ融合モジュールを設計する。
次に,モデルの性能をさらに高めるためにラベル認識知識を導入する。
DialogREデータセットによる実験結果から,我々のTLAGはベースラインモデルよりも優れており,詳細な分析により本手法の有効性が示された。
関連論文リスト
- Chain of Thought Explanation for Dialogue State Tracking [52.015771676340016]
対話状態追跡(DST)は、会話中のユーザクエリと目標を記録することを目的としている。
DSTタスクに対してChain-of-Thought-Explanation(CoTE)というモデルを提案する。
CoTEはスロット値を決定した後、ステップバイステップで詳細な説明を作成するように設計されている。
論文 参考訳(メタデータ) (2024-03-07T16:59:55Z) - Zero-Shot Dialogue Relation Extraction by Relating Explainable Triggers
and Relation Names [28.441725610692714]
本稿では,トリガを捕捉し,これまで見つからなかった関係名に関連付ける能力を活用する手法を提案する。
ベンチマークのDialogREデータセットを用いた実験により,提案モデルが目視関係と目視関係の両面で有意な改善を達成できることが示された。
論文 参考訳(メタデータ) (2023-06-09T07:10:01Z) - Message Intercommunication for Inductive Relation Reasoning [49.731293143079455]
我々はMINESと呼ばれる新しい帰納的関係推論モデルを開発した。
隣り合う部分グラフにメッセージ通信機構を導入する。
我々の実験は、MINESが既存の最先端モデルより優れていることを示している。
論文 参考訳(メタデータ) (2023-05-23T13:51:46Z) - GRASP: Guiding model with RelAtional Semantics using Prompt [3.1275060062551208]
本稿では Prompt (GRASP) を用いたRelAtional Semantics を用いた誘導モデルを提案する。
我々は、プロンプトベースの微調整アプローチを採用し、引数を意識したプロンプトマーカー戦略を用いて、ある対話における関係意味的手がかりをキャプチャする。
実験では、DialogREデータセット上でのF1とF1cのスコアの観点から、GRASPの最先端のパフォーマンスが評価された。
論文 参考訳(メタデータ) (2022-08-26T08:19:28Z) - CUP: Curriculum Learning based Prompt Tuning for Implicit Event Argument
Extraction [22.746071199667146]
Implicit Event argument extract (EAE) は、文書に散らばる可能性のある引数を特定することを目的としている。
本稿では,4つの学習段階によって暗黙的EAEを解消する,カリキュラム学習に基づくプロンプトチューニング(CUP)手法を提案する。
さらに,事前学習した言語モデルから関連する知識を引き出すために,プロンプトベースのエンコーダデコーダモデルを統合する。
論文 参考訳(メタデータ) (2022-05-01T16:03:54Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - D-REX: Dialogue Relation Extraction with Explanations [65.3862263565638]
この研究は、部分的にラベル付けされたデータのみを使用しながら関係が存在することを示す説明を抽出することに焦点を当てている。
本稿では,政策誘導型半教師付きアルゴリズムD-REXを提案する。
約90%の人は、強いBERTに基づく関節関係抽出と説明モデルよりもD-REXの説明を好んでいる。
論文 参考訳(メタデータ) (2021-09-10T22:30:48Z) - AutoTriggER: Label-Efficient and Robust Named Entity Recognition with
Auxiliary Trigger Extraction [54.20039200180071]
我々は,エンティティトリガの自動生成と活用によるNER性能向上のための新しいフレームワークを提案する。
筆者らのフレームワークは,ポストホックな説明を活用して合理的な知識を生成し,埋め込み手法を用いてモデルの事前知識を強化する。
AutoTriggERは強力なラベル効率を示し、目に見えないエンティティを一般化し、RoBERTa-CRFベースラインを平均0.5F1ポイント上回る性能を持つ。
論文 参考訳(メタデータ) (2021-09-10T08:11:56Z) - TREND: Trigger-Enhanced Relation-Extraction Network for Dialogues [37.883583724569554]
本稿では,関係抽出を改善するためのトリガの同定を学習するマルチタスクBERTモデルTRENDを提案する。
実験結果から,提案手法がベンチマークデータセットの最先端性を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-08-31T13:04:08Z) - A Fast and Robust BERT-based Dialogue State Tracker for Schema-Guided
Dialogue Dataset [8.990035371365408]
本稿では,目標指向対話システムにおける状態追跡のための高速かつ堅牢なBERTベースモデルであるFastSGTを紹介する。
提案モデルは自然言語記述を含むGuided Dialogueデータセットのために設計されている。
本モデルでは,精度を著しく向上しつつ,計算およびメモリ消費の面で効率を保っている。
論文 参考訳(メタデータ) (2020-08-27T18:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。