論文の概要: Annotation-Inspired Implicit Discourse Relation Classification with
Auxiliary Discourse Connective Generation
- arxiv url: http://arxiv.org/abs/2306.06480v1
- Date: Sat, 10 Jun 2023 16:38:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 18:43:40.990800
- Title: Annotation-Inspired Implicit Discourse Relation Classification with
Auxiliary Discourse Connective Generation
- Title(参考訳): Auxiliary Discourse Connective Generation を用いたアノテーションによる暗黙的談話関係分類
- Authors: Wei Liu and Michael Strube
- Abstract要約: 暗黙の談話関係分類は、談話接続が欠如しているため難しい課題である。
PDTBのアノテーションプロセスにインスパイアされた,タスクの談話接続を明示的に生成するエンド・ツー・エンドニューラルネットワークを設計する。
具体的には,議論間の談話接続を生成することを共同で学習し,議論と生成した連接関係に基づいて談話関係を予測する。
- 参考スコア(独自算出の注目度): 14.792252724959383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit discourse relation classification is a challenging task due to the
absence of discourse connectives. To overcome this issue, we design an
end-to-end neural model to explicitly generate discourse connectives for the
task, inspired by the annotation process of PDTB. Specifically, our model
jointly learns to generate discourse connectives between arguments and predict
discourse relations based on the arguments and the generated connectives. To
prevent our relation classifier from being misled by poor connectives generated
at the early stage of training while alleviating the discrepancy between
training and inference, we adopt Scheduled Sampling to the joint learning. We
evaluate our method on three benchmarks, PDTB 2.0, PDTB 3.0, and PCC. Results
show that our joint model significantly outperforms various baselines on three
datasets, demonstrating its superiority for the task.
- Abstract(参考訳): 暗黙の談話関係分類は、談話接続が存在しないため難しい課題である。
この問題を克服するため,我々は,pdtbのアノテーションプロセスに触発されたタスクの会話接続を明示的に生成するために,エンドツーエンドのニューラルモデルを設計する。
具体的には,議論間の談話接続を生成し,議論と生成した連結関係に基づいて談話関係を予測する。
学習の初期段階において,関係分類器が,トレーニングと推論の相違を緩和しつつ,弱い結合によって誤用されることを防止するため,共同学習にスケジューリングサンプリングを採用する。
提案手法をPDTB 2.0,PDTB 3.0,PCCの3つのベンチマークで評価した。
その結果,3つのデータセットにおいて,関節モデルは様々なベースラインを著しく上回り,タスクの優越性を示した。
関連論文リスト
- Prompt-based Logical Semantics Enhancement for Implicit Discourse
Relation Recognition [4.7938839332508945]
Inlicit Discourse Relation Recognition (IDRR) のための Prompt-based Logical Semantics Enhancement (PLSE) 法を提案する。
提案手法は,事前学習した言語モデルに対する対話関係に関する知識を,素早い接続予測によってシームレスに注入する。
PDTB 2.0 と CoNLL16 データセットによる実験結果から,本手法は現状の最先端モデルに対して優れた一貫した性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-11-01T08:38:08Z) - Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - Pre-trained Sentence Embeddings for Implicit Discourse Relation
Classification [26.973476248983477]
暗黙の談話関係は、より小さな言語単位を一貫性のあるテキストに結合する。
本稿では,暗黙的対話関係感覚分類のためのニューラルネットワークにおけるベース表現として,事前学習文の埋め込みの有用性について検討する。
論文 参考訳(メタデータ) (2022-10-20T04:17:03Z) - Prompt-based Connective Prediction Method for Fine-grained Implicit
Discourse Relation Recognition [34.02125358302028]
本稿では,IDRRのための新しいPrompt-based Connective Prediction (PCP)法を提案する。
提案手法は,大規模事前学習モデルに対して,談話関係に関する知識を利用するよう指示する。
実験の結果,本手法は現在の最先端モデルを上回ることがわかった。
論文 参考訳(メタデータ) (2022-10-13T13:47:13Z) - Distant finetuning with discourse relations for stance classification [55.131676584455306]
そこで本研究では,定位分類のモデルとして,原文から銀ラベルでデータを抽出し,微調整する手法を提案する。
また,様々な段階において微調整に用いるデータのノイズレベルが減少する3段階のトレーニングフレームワークを提案する。
NLPCC 2021共有タスクArgumentative Text Understanding for AI Debaterでは,26の競合チームの中で1位にランクインした。
論文 参考訳(メタデータ) (2022-04-27T04:24:35Z) - Self-supervised Contrastive Cross-Modality Representation Learning for
Spoken Question Answering [29.545937716796082]
音声質問応答 (SQA) は、音声文書と質問の両方をきめ細かな理解を必要とする。
本稿では,自己指導型学習段階とコントラッシブな表現学習段階を併用した音声質問応答のための新しい学習手法を提案する。
本モデルでは,3つのSQAベンチマークの最先端結果が得られた。
論文 参考訳(メタデータ) (2021-09-08T01:13:14Z) - Paired Examples as Indirect Supervision in Latent Decision Models [109.76417071249945]
我々は、ペア化された例を活用して、潜在的な決定を学習するためのより強力な手がかりを提供する方法を紹介します。
DROPデータセット上のニューラルネットワークを用いた合成質問応答の改善に本手法を適用した。
論文 参考訳(メタデータ) (2021-04-05T03:58:30Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z) - Learning to Decouple Relations: Few-Shot Relation Classification with
Entity-Guided Attention and Confusion-Aware Training [49.9995628166064]
本稿では,2つのメカニズムを備えたモデルであるCTEGを提案する。
一方、注意を誘導するEGA機構を導入し、混乱を引き起こす情報をフィルタリングする。
一方,コンフュージョン・アウェア・トレーニング(CAT)法は,関係の識別を明示的に学習するために提案されている。
論文 参考訳(メタデータ) (2020-10-21T11:07:53Z) - Leveraging Semantic Parsing for Relation Linking over Knowledge Bases [80.99588366232075]
本稿では,AMRを用いた意味解析と遠隔監視を利用した関係リンクフレームワークであるSlingを提案する。
Slingは複数の関係リンクアプローチを統合し、言語的手がかり、豊かな意味表現、知識ベースからの情報などの補完的な信号をキャプチャする。
QALD-7, QALD-9, LC-QuAD 1.0という3つのKBQAデータセットを用いた関係リンク実験により, 提案手法が全てのベンチマークで最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2020-09-16T14:56:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。