論文の概要: What Causes the Failure of Explicit to Implicit Discourse Relation Recognition?
- arxiv url: http://arxiv.org/abs/2404.00999v1
- Date: Mon, 1 Apr 2024 09:08:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 22:56:51.581688
- Title: What Causes the Failure of Explicit to Implicit Discourse Relation Recognition?
- Title(参考訳): 言論関係認識の障害の原因は何か?
- Authors: Wei Liu, Stephen Wan, Michael Strube,
- Abstract要約: このような障害の1つの原因は、接続が削除された後のラベルシフトであることを示す。
いくつかの明示的なインスタンスによって表現される談話関係は、接続が消えると変化する。
ラベルシフトを軽減するための2つの戦略について検討する。
- 参考スコア(独自算出の注目度): 14.021169977926265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider an unanswered question in the discourse processing community: why do relation classifiers trained on explicit examples (with connectives removed) perform poorly in real implicit scenarios? Prior work claimed this is due to linguistic dissimilarity between explicit and implicit examples but provided no empirical evidence. In this study, we show that one cause for such failure is a label shift after connectives are eliminated. Specifically, we find that the discourse relations expressed by some explicit instances will change when connectives disappear. Unlike previous work manually analyzing a few examples, we present empirical evidence at the corpus level to prove the existence of such shift. Then, we analyze why label shift occurs by considering factors such as the syntactic role played by connectives, ambiguity of connectives, and more. Finally, we investigate two strategies to mitigate the label shift: filtering out noisy data and joint learning with connectives. Experiments on PDTB 2.0, PDTB 3.0, and the GUM dataset demonstrate that classifiers trained with our strategies outperform strong baselines.
- Abstract(参考訳): なぜ関係分類器は(接続性を取り除いた)明示的な例で訓練され、実際の暗黙のシナリオでは不十分な結果をもたらすのか?
以前の研究では、これは明示的な例と暗黙的な例の間に言語的な相違があると主張したが、実証的な証拠は提供されなかった。
本研究では,このような障害の原因の一つが,結合体を除去した後のラベルシフトであることを示す。
特に、いくつかの明示的なインスタンスで表される談話関係は、接続が消えると変化する。
いくつかの例を手作業で分析する以前の研究とは異なり、このようなシフトの存在を証明するために、コーパスレベルで実証的な証拠を提示する。
そこで, 結合が果たす統語的役割, 結合のあいまいさなどの要因を考慮し, ラベルシフトが発生する理由を解析した。
最後に,ラベルシフトを軽減するための2つの戦略について検討する。
PDTB 2.0、PDTB 3.0、GUMデータセットの実験では、我々の戦略で訓練された分類器が強いベースラインを上回ります。
関連論文リスト
- Wide Two-Layer Networks can Learn from Adversarial Perturbations [27.368408524000778]
摂動学習の反直感的成功を理論的に説明する。
対角摂動は、ネットワークがそれらから一般化するのに十分なクラス固有の特徴を含むことを証明している。
論文 参考訳(メタデータ) (2024-10-31T06:55:57Z) - Uncovering Autoregressive LLM Knowledge of Thematic Fit in Event Representation [0.09558392439655014]
我々は,事前学習した自己回帰型LLMが,テーマ適合性に関する一貫した表現可能な知識を持っているかどうかを評価する。
いくつかの心理言語学的データセットを用いて, 閉じた状態とオープンな状態のLLMを評価した。
本結果は,自己説明型セマンティックロールラベルを持つデータセットに対して,連鎖推論がより効果的であることを示す。
論文 参考訳(メタデータ) (2024-10-19T18:25:30Z) - Multi-Label Classification for Implicit Discourse Relation Recognition [10.280148603465697]
暗黙的な談話関係認識のための多言語分類フレームワークについて検討する。
本研究では,複数ラベルの分類手法が単一ラベルの予測性能を低下させないことを示す。
論文 参考訳(メタデータ) (2024-06-06T19:37:25Z) - Understanding and Mitigating Spurious Correlations in Text
Classification with Neighborhood Analysis [69.07674653828565]
機械学習モデルは、トレーニングセットに存在するが一般的な状況では当てはまらない急激な相関を利用する傾向にある。
本稿では, 周辺分析と呼ばれる新しい視点から, 突発的相関がもたらす意味について考察する。
本稿では,テキスト分類における素早い相関を緩和する正規化手法であるNFL(doN't Forget your Language)を提案する。
論文 参考訳(メタデータ) (2023-05-23T03:55:50Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - Counterfactual Invariance to Spurious Correlations: Why and How to Pass
Stress Tests [87.60900567941428]
素早い相関」とは、アナリストが重要とすべきでないと考える入力データのある側面に対するモデルの依存である。
機械学習では、これらにはノウ・イ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ」という特徴がある。
因果推論ツールを用いたストレステストについて検討した。
論文 参考訳(メタデータ) (2021-05-31T14:39:38Z) - Learning to Decouple Relations: Few-Shot Relation Classification with
Entity-Guided Attention and Confusion-Aware Training [49.9995628166064]
本稿では,2つのメカニズムを備えたモデルであるCTEGを提案する。
一方、注意を誘導するEGA機構を導入し、混乱を引き起こす情報をフィルタリングする。
一方,コンフュージョン・アウェア・トレーニング(CAT)法は,関係の識別を明示的に学習するために提案されている。
論文 参考訳(メタデータ) (2020-10-21T11:07:53Z) - Geometry matters: Exploring language examples at the decision boundary [2.7249290070320034]
BERT、CNN、fasttextは、高い難易度例において単語置換の影響を受けやすい。
YelpReviewPolarityでは、レジリエンスと摂動の相関係数-0.4と難易度との相関係数を観測する。
我々のアプローチは単純でアーキテクチャに依存しないものであり、テキスト分類モデルの華やかさの研究に利用できる。
論文 参考訳(メタデータ) (2020-10-14T16:26:13Z) - The Extraordinary Failure of Complement Coercion Crowdsourcing [50.599433903377374]
クラウドソーシングは近年,言語アノテーションの収集を緩和し,スケールアップしている。
本研究の目的は,この現象の注釈付きデータを2つの既知のタスク – 明示的補完と自然言語推論 – に還元することで収集することである。
どちらの場合も、クラウドソーシングは合意のスコアが低かった。
論文 参考訳(メタデータ) (2020-10-12T19:04:04Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。