論文の概要: Let's be explicit about that: Distant supervision for implicit discourse
relation classification via connective prediction
- arxiv url: http://arxiv.org/abs/2106.03192v1
- Date: Sun, 6 Jun 2021 17:57:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-13 10:21:46.871617
- Title: Let's be explicit about that: Distant supervision for implicit discourse
relation classification via connective prediction
- Title(参考訳): 接続予測による暗黙的談話関係分類のための遠隔監視
- Authors: Murathan Kurfal{\i} and Robert \"Ostling
- Abstract要約: 暗黙の談話関係分類では,任意の談話接続が存在しない場合,隣り合う文間の関係を予測したい。
我々は,暗黙関係の明示を通じてデータ不足を回避し,タスクを2つのサブプロブレム(言語モデリングと明示的談話関係分類)に減らした。
実験結果から,本手法は同等性能の代替モデルよりも遥かに単純であるにもかかわらず,最先端技術よりもはるかに優れていることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In implicit discourse relation classification, we want to predict the
relation between adjacent sentences in the absence of any overt discourse
connectives. This is challenging even for humans, leading to shortage of
annotated data, a fact that makes the task even more difficult for supervised
machine learning approaches. In the current study, we perform implicit
discourse relation classification without relying on any labeled implicit
relation. We sidestep the lack of data through explicitation of implicit
relations to reduce the task to two sub-problems: language modeling and
explicit discourse relation classification, a much easier problem. Our
experimental results show that this method can even marginally outperform the
state-of-the-art, in spite of being much simpler than alternative models of
comparable performance. Moreover, we show that the achieved performance is
robust across domains as suggested by the zero-shot experiments on a completely
different domain. This indicates that recent advances in language modeling have
made language models sufficiently good at capturing inter-sentence relations
without the help of explicit discourse markers.
- Abstract(参考訳): 暗黙的談話関係分類では,隣接文間の関係を,重複した談話接続が存在しない場合に予測したい。
これは人間にとっても困難であり、注釈付きデータの不足につながり、教師付き機械学習アプローチではタスクがさらに困難になる。
本研究では,ラベル付き暗黙的関係に頼らずに,暗黙的談話関係分類を行う。
暗黙の関係を明示することでデータの欠如を回避し、タスクを2つのサブプロブレム(言語モデリングと明示的な談話関係の分類)に削減します。
実験結果から,本手法は同等性能の代替モデルよりも遥かに単純であるにもかかわらず,最先端技術よりもはるかに優れていることが示された。
さらに, ゼロショット実験では, 完全に異なる領域において, 達成された性能がドメイン間で堅牢であることが示唆された。
このことは、近年の言語モデリングの進歩により、言語モデルが明示的な談話マーカーの助けなしに、文間関係を捉えるのに十分適していることを示している。
関連論文リスト
- Leveraging Hierarchical Prototypes as the Verbalizer for Implicit Discourse Relation Recognition [7.149359970799236]
暗黙の言論関係認識は、明示的な言論接続によってリンクされていないテキストのスパン間の関係を決定することを含む。
それまでの作業は、暗黙の言論関係認識のための手話代行にのみ依存していた。
特定のクラスレベルの意味的特徴をキャプチャするプロトタイプと、異なるクラスに対する階層的なラベル構造を、動詞化子として活用する。
論文 参考訳(メタデータ) (2024-11-22T12:01:04Z) - DenoSent: A Denoising Objective for Self-Supervised Sentence
Representation Learning [59.4644086610381]
本稿では,他の視点,すなわち文内視点から継承する新たな認知的目的を提案する。
離散ノイズと連続ノイズの両方を導入することで、ノイズの多い文を生成し、モデルを元の形式に復元するように訓練する。
我々の経験的評価は,本手法が意味的テキスト類似性(STS)と幅広い伝達タスクの両面で競合する結果をもたらすことを示した。
論文 参考訳(メタデータ) (2024-01-24T17:48:45Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - Pre-trained Sentence Embeddings for Implicit Discourse Relation
Classification [26.973476248983477]
暗黙の談話関係は、より小さな言語単位を一貫性のあるテキストに結合する。
本稿では,暗黙的対話関係感覚分類のためのニューラルネットワークにおけるベース表現として,事前学習文の埋め込みの有用性について検討する。
論文 参考訳(メタデータ) (2022-10-20T04:17:03Z) - HiURE: Hierarchical Exemplar Contrastive Learning for Unsupervised
Relation Extraction [60.80849503639896]
非教師なし関係抽出は、関係範囲や分布に関する事前情報のない自然言語文からエンティティ間の関係を抽出することを目的としている。
本稿では,階層間注目を用いた階層的特徴空間から階層的信号を導出する機能を持つ,HiUREという新しいコントラスト学習フレームワークを提案する。
2つの公開データセットの実験結果は、最先端モデルと比較した場合の教師なし関係抽出におけるHiUREの有効性とロバスト性を示す。
論文 参考訳(メタデータ) (2022-05-04T17:56:48Z) - Discourse Relation Embeddings: Representing the Relations between
Discourse Segments in Social Media [8.51950029432202]
対話関係を高次元連続空間の点として表現することを提案する。
言葉とは異なり、談話関係はしばしば表面形式を持たない。
談話関係の埋め込みを自動的に生成する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-05-04T05:58:27Z) - Prototypical Representation Learning for Relation Extraction [56.501332067073065]
本論文では, 遠隔ラベルデータから予測可能, 解釈可能, 堅牢な関係表現を学習することを目的とする。
文脈情報から各関係のプロトタイプを学習し,関係の本質的意味を最善に探求する。
いくつかの関係学習タスクの結果,本モデルが従来の関係モデルを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-03-22T08:11:43Z) - Logic-guided Semantic Representation Learning for Zero-Shot Relation
Classification [31.887770824130957]
ゼロショット関係分類のための論理誘導型意味表現学習モデルを提案する。
我々のアプローチは、暗黙的および明示的な意味表現と知識グラフの埋め込みと論理規則との接続を構築する。
論文 参考訳(メタデータ) (2020-10-30T04:30:09Z) - Learning to Decouple Relations: Few-Shot Relation Classification with
Entity-Guided Attention and Confusion-Aware Training [49.9995628166064]
本稿では,2つのメカニズムを備えたモデルであるCTEGを提案する。
一方、注意を誘導するEGA機構を導入し、混乱を引き起こす情報をフィルタリングする。
一方,コンフュージョン・アウェア・トレーニング(CAT)法は,関係の識別を明示的に学習するために提案されている。
論文 参考訳(メタデータ) (2020-10-21T11:07:53Z) - Pairwise Supervision Can Provably Elicit a Decision Boundary [84.58020117487898]
類似性学習は、パターンのペア間の関係を予測することによって有用な表現を引き出す問題である。
類似性学習は、決定境界を直接引き出すことによって二項分類を解くことができることを示す。
論文 参考訳(メタデータ) (2020-06-11T05:35:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。