論文の概要: Extending Implicit Discourse Relation Recognition to the PDTB-3
- arxiv url: http://arxiv.org/abs/2010.06294v1
- Date: Tue, 13 Oct 2020 11:19:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 23:40:04.425230
- Title: Extending Implicit Discourse Relation Recognition to the PDTB-3
- Title(参考訳): PDTB-3における意図的談話関係認識の拡張
- Authors: Li Liang, Zheng Zhao and Bonnie Webber
- Abstract要約: PDTB-3は以前のPDTB-2よりも多くのインプリシットな談話関係を含んでいる。
これは、暗黙の関係が文中でもそれらの間にも注釈付けされているためである。
これは暗黙の言論関係の位置を識別する問題を複雑にしうるが、結果的にその感覚を識別する問題を単純化できることを示した。
- 参考スコア(独自算出の注目度): 10.536108911520255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The PDTB-3 contains many more Implicit discourse relations than the previous
PDTB-2. This is in part because implicit relations have now been annotated
within sentences as well as between them. In addition, some now co-occur with
explicit discourse relations, instead of standing on their own. Here we show
that while this can complicate the problem of identifying the location of
implicit discourse relations, it can in turn simplify the problem of
identifying their senses. We present data to support this claim, as well as
methods that can serve as a non-trivial baseline for future state-of-the-art
recognizers for implicit discourse relations.
- Abstract(参考訳): PDTB-3は以前のPDTB-2よりも多くのインプリシットな談話関係を含んでいる。
これは、暗黙的な関係が文内でもそれらの間でも注釈されているためである。
さらに、現在では、独自の立場ではなく、明示的な言論関係を持つ者もいる。
ここでは,暗黙の談話関係の位置を同定する問題を複雑化するが,それらの感覚を識別する問題を単純化できることを示す。
この主張を支持するためのデータと、暗黙の言論関係のための未来の最先端認識者のための非自明なベースラインとして機能する手法を提案する。
関連論文リスト
- New Rules for Causal Identification with Background Knowledge [59.733125324672656]
オープンな問題に対する新たな視点を提供するBKを導入するための2つの新しいルールを提案する。
これらのルールは、観測データによる因果効果のセットを決定するなど、典型的な因果関係のタスクに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-07-21T20:21:21Z) - ChatGPT Evaluation on Sentence Level Relations: A Focus on Temporal,
Causal, and Discourse Relations [52.26802326949116]
対話型大規模言語モデルChatGPTの性能を,文間関係に基づいて定量的に評価する。
ChatGPTは因果関係の検出と推論において極めて優れた能力を示す。
既存の明示的な談話接続物との談話関係の大多数を特定できるが、暗黙的な談話関係は依然として恐ろしい課題である。
論文 参考訳(メタデータ) (2023-04-28T13:14:36Z) - A description of Turkish Discourse Bank 1.2 and an examination of common
dependencies in Turkish discourse [0.0]
トルコの談話銀行1.2について述べる。これは、明示的または暗黙的に伝えられる談話関係を注釈付けした談話コーパスの最新版である。
本稿では,隣接する2対の談話関係と関係する単位の3つの係り受けパターンについて検討する。
論文 参考訳(メタデータ) (2022-07-11T16:57:00Z) - Revisiting Shallow Discourse Parsing in the PDTB-3: Handling
Intra-sentential Implicits [10.575993917324185]
PDTB-3では,数千の暗黙の言説関係が個々の文で新たに注釈付けされ,PDTB-2の隣接文で15,000以上の暗黙の関係が注釈付けされた。
本稿では,本研究の結果を包括的に分析し,異なるシナリオ下でのモデル性能を示し,制約を指摘し,今後の方向性を示す。
論文 参考訳(メタデータ) (2022-04-01T10:56:25Z) - Text-based NP Enrichment [51.403543011094975]
我々は、テキストベースのNPエンリッチメント(TNE)のタスクを確立する。つまり、各NPに、テキスト内の他のNPとの間に保持されるすべての前置詞による関係を豊かにする。
人間はこのような関係をシームレスに回復するが、現在の最先端モデルは問題の暗黙的な性質のためにそれらと戦っている。
この問題に対する最初の大規模データセットを構築し、正式なフレーミングとアノテーションの範囲を提供し、データを解析し、タスクに微調整されたニューラルネットワークモデルの結果を報告する。
論文 参考訳(メタデータ) (2021-09-24T17:23:25Z) - Discourse Relation Embeddings: Representing the Relations between
Discourse Segments in Social Media [8.51950029432202]
対話関係を高次元連続空間の点として表現することを提案する。
言葉とは異なり、談話関係はしばしば表面形式を持たない。
談話関係の埋め込みを自動的に生成する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-05-04T05:58:27Z) - Learning to Decouple Relations: Few-Shot Relation Classification with
Entity-Guided Attention and Confusion-Aware Training [49.9995628166064]
本稿では,2つのメカニズムを備えたモデルであるCTEGを提案する。
一方、注意を誘導するEGA機構を導入し、混乱を引き起こす情報をフィルタリングする。
一方,コンフュージョン・アウェア・トレーニング(CAT)法は,関係の識別を明示的に学習するために提案されている。
論文 参考訳(メタデータ) (2020-10-21T11:07:53Z) - QADiscourse -- Discourse Relations as QA Pairs: Representation,
Crowdsourcing and Baselines [22.103540930959237]
本稿では,会話関係をQAペアとして表現する新しい手法を提案する。
提案した表現に基づいて,新しい広範囲QADiscourseデータセットと,QADiscourse関係を予測するためのベースラインアルゴリズムを収集する。
論文 参考訳(メタデータ) (2020-10-06T15:25:15Z) - Leveraging Semantic Parsing for Relation Linking over Knowledge Bases [80.99588366232075]
本稿では,AMRを用いた意味解析と遠隔監視を利用した関係リンクフレームワークであるSlingを提案する。
Slingは複数の関係リンクアプローチを統合し、言語的手がかり、豊かな意味表現、知識ベースからの情報などの補完的な信号をキャプチャする。
QALD-7, QALD-9, LC-QuAD 1.0という3つのKBQAデータセットを用いた関係リンク実験により, 提案手法が全てのベンチマークで最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2020-09-16T14:56:11Z) - ExpBERT: Representation Engineering with Natural Language Explanations [83.32962614424198]
我々は、MultiNLIに微調整されたBERTを用いて、入力文に関するこれらの説明を解釈する。
3つの関係抽出タスクのうち,提案手法であるExpBERTはBERTベースラインと一致するが,ラベル付きデータを3~20倍少なくし,同じラベル付きデータを3~10F1ポイント改善する。
論文 参考訳(メタデータ) (2020-05-05T03:40:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。