論文の概要: What Causes the Failure of Explicit to Implicit Discourse Relation Recognition?
- arxiv url: http://arxiv.org/abs/2404.00999v1
- Date: Mon, 1 Apr 2024 09:08:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 22:56:51.581688
- Title: What Causes the Failure of Explicit to Implicit Discourse Relation Recognition?
- Title(参考訳): 言論関係認識の障害の原因は何か?
- Authors: Wei Liu, Stephen Wan, Michael Strube,
- Abstract要約: このような障害の1つの原因は、接続が削除された後のラベルシフトであることを示す。
いくつかの明示的なインスタンスによって表現される談話関係は、接続が消えると変化する。
ラベルシフトを軽減するための2つの戦略について検討する。
- 参考スコア(独自算出の注目度): 14.021169977926265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider an unanswered question in the discourse processing community: why do relation classifiers trained on explicit examples (with connectives removed) perform poorly in real implicit scenarios? Prior work claimed this is due to linguistic dissimilarity between explicit and implicit examples but provided no empirical evidence. In this study, we show that one cause for such failure is a label shift after connectives are eliminated. Specifically, we find that the discourse relations expressed by some explicit instances will change when connectives disappear. Unlike previous work manually analyzing a few examples, we present empirical evidence at the corpus level to prove the existence of such shift. Then, we analyze why label shift occurs by considering factors such as the syntactic role played by connectives, ambiguity of connectives, and more. Finally, we investigate two strategies to mitigate the label shift: filtering out noisy data and joint learning with connectives. Experiments on PDTB 2.0, PDTB 3.0, and the GUM dataset demonstrate that classifiers trained with our strategies outperform strong baselines.
- Abstract(参考訳): なぜ関係分類器は(接続性を取り除いた)明示的な例で訓練され、実際の暗黙のシナリオでは不十分な結果をもたらすのか?
以前の研究では、これは明示的な例と暗黙的な例の間に言語的な相違があると主張したが、実証的な証拠は提供されなかった。
本研究では,このような障害の原因の一つが,結合体を除去した後のラベルシフトであることを示す。
特に、いくつかの明示的なインスタンスで表される談話関係は、接続が消えると変化する。
いくつかの例を手作業で分析する以前の研究とは異なり、このようなシフトの存在を証明するために、コーパスレベルで実証的な証拠を提示する。
そこで, 結合が果たす統語的役割, 結合のあいまいさなどの要因を考慮し, ラベルシフトが発生する理由を解析した。
最後に,ラベルシフトを軽減するための2つの戦略について検討する。
PDTB 2.0、PDTB 3.0、GUMデータセットの実験では、我々の戦略で訓練された分類器が強いベースラインを上回ります。
関連論文リスト
- Automatic Alignment of Discourse Relations of Different Discourse Annotation Frameworks [5.439020425819001]
分類作業中にラベル埋め込みを学習するための完全自動アプローチを導入する。
これらの埋め込みは、異なるフレームワークの談話関係をマッピングするために使われる。
論文 参考訳(メタデータ) (2024-03-29T14:18:26Z) - Understanding and Mitigating Spurious Correlations in Text
Classification with Neighborhood Analysis [69.07674653828565]
機械学習モデルは、トレーニングセットに存在するが一般的な状況では当てはまらない急激な相関を利用する傾向にある。
本稿では, 周辺分析と呼ばれる新しい視点から, 突発的相関がもたらす意味について考察する。
本稿では,テキスト分類における素早い相関を緩和する正規化手法であるNFL(doN't Forget your Language)を提案する。
論文 参考訳(メタデータ) (2023-05-23T03:55:50Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - Let's be explicit about that: Distant supervision for implicit discourse
relation classification via connective prediction [0.0]
暗黙の談話関係分類では,任意の談話接続が存在しない場合,隣り合う文間の関係を予測したい。
我々は,暗黙関係の明示を通じてデータ不足を回避し,タスクを2つのサブプロブレム(言語モデリングと明示的談話関係分類)に減らした。
実験結果から,本手法は同等性能の代替モデルよりも遥かに単純であるにもかかわらず,最先端技術よりもはるかに優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T17:57:32Z) - Counterfactual Invariance to Spurious Correlations: Why and How to Pass
Stress Tests [87.60900567941428]
素早い相関」とは、アナリストが重要とすべきでないと考える入力データのある側面に対するモデルの依存である。
機械学習では、これらにはノウ・イ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ」という特徴がある。
因果推論ツールを用いたストレステストについて検討した。
論文 参考訳(メタデータ) (2021-05-31T14:39:38Z) - Logic-guided Semantic Representation Learning for Zero-Shot Relation
Classification [31.887770824130957]
ゼロショット関係分類のための論理誘導型意味表現学習モデルを提案する。
我々のアプローチは、暗黙的および明示的な意味表現と知識グラフの埋め込みと論理規則との接続を構築する。
論文 参考訳(メタデータ) (2020-10-30T04:30:09Z) - Learning to Decouple Relations: Few-Shot Relation Classification with
Entity-Guided Attention and Confusion-Aware Training [49.9995628166064]
本稿では,2つのメカニズムを備えたモデルであるCTEGを提案する。
一方、注意を誘導するEGA機構を導入し、混乱を引き起こす情報をフィルタリングする。
一方,コンフュージョン・アウェア・トレーニング(CAT)法は,関係の識別を明示的に学習するために提案されている。
論文 参考訳(メタデータ) (2020-10-21T11:07:53Z) - Geometry matters: Exploring language examples at the decision boundary [2.7249290070320034]
BERT、CNN、fasttextは、高い難易度例において単語置換の影響を受けやすい。
YelpReviewPolarityでは、レジリエンスと摂動の相関係数-0.4と難易度との相関係数を観測する。
我々のアプローチは単純でアーキテクチャに依存しないものであり、テキスト分類モデルの華やかさの研究に利用できる。
論文 参考訳(メタデータ) (2020-10-14T16:26:13Z) - The Extraordinary Failure of Complement Coercion Crowdsourcing [50.599433903377374]
クラウドソーシングは近年,言語アノテーションの収集を緩和し,スケールアップしている。
本研究の目的は,この現象の注釈付きデータを2つの既知のタスク – 明示的補完と自然言語推論 – に還元することで収集することである。
どちらの場合も、クラウドソーシングは合意のスコアが低かった。
論文 参考訳(メタデータ) (2020-10-12T19:04:04Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。