論文の概要: Are Eliminated Spans Useless for Coreference Resolution? Not at all
- arxiv url: http://arxiv.org/abs/2101.00737v1
- Date: Mon, 4 Jan 2021 02:02:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 23:04:46.634576
- Title: Are Eliminated Spans Useless for Coreference Resolution? Not at all
- Title(参考訳): 排除スパンは相互参照解決に役に立たないのか?
いいえ、まったく
- Authors: Xin Tan, Longyin Zhang and Guodong Zhou
- Abstract要約: 本稿では,表現強化のためのポインタネットワークを用いて,参照と高度に関連付けられたスパンをうまく活用する参照表現精錬戦略を提案する。
文書レベルのCoNLL-2012 Shared Task Englishデータセットの実験結果によると、スパンの除去は確かに非常に効果的である。
- 参考スコア(独自算出の注目度): 26.92897088026001
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Various neural-based methods have been proposed so far for joint mention
detection and coreference resolution. However, existing works on coreference
resolution are mainly dependent on filtered mention representation, while other
spans are largely neglected. In this paper, we aim at increasing the
utilization rate of data and investigating whether those eliminated spans are
totally useless, or to what extent they can improve the performance of
coreference resolution. To achieve this, we propose a mention representation
refining strategy where spans highly related to mentions are well leveraged
using a pointer network for representation enhancing. Notably, we utilize an
additional loss term in this work to encourage the diversity between entity
clusters. Experimental results on the document-level CoNLL-2012 Shared Task
English dataset show that eliminated spans are indeed much effective and our
approach can achieve competitive results when compared with previous
state-of-the-art in coreference resolution.
- Abstract(参考訳): 共同参照検出と共参照解決のために、これまでに様々なニューラルベース手法が提案されている。
しかし、コア参照解決に関する既存の研究は主にフィルタされた参照表現に依存している。
本稿では,データの利用率の向上と,削除したスパンが完全に無益であるかどうか,あるいはコア参照解決の性能をどの程度向上できるかを検討することを目的とする。
そこで本稿では,表現強化のためのポインタネットワークを用いて,参照に高い関連性を持つスパンをうまく活用する参照表現精錬戦略を提案する。
特に、エンティティクラスタ間の多様性を促進するために、この作業で追加の損失項を利用しています。
文書レベルのCoNLL-2012 共有タスク英語データセットによる実験結果から,スパンの除去は極めて効果的であり,従来のコア参照解決技術と比較した場合の競合的な結果が得られることがわかった。
関連論文リスト
- Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - Provably Efficient Learning in Partially Observable Contextual Bandit [4.910658441596583]
古典的帯域幅アルゴリズムの改善に因果境界をどのように適用できるかを示す。
本研究は,実世界の応用における文脈的包括的エージェントの性能を高める可能性を秘めている。
論文 参考訳(メタデータ) (2023-08-07T13:24:50Z) - Intra-Batch Supervision for Panoptic Segmentation on High-Resolution
Images [4.314956204483074]
統一パノプティカルセグメンテーション法は、いくつかのデータセットで最先端の結果を達成している。
高分解能データセット上でこれらの結果を達成するために、これらの手法は作物ベースの訓練を適用している。
作物をベースとした訓練は一般的に有利だが、有害な副作用もある。
Intra-Batch Supervision (IBS) を提案する。
論文 参考訳(メタデータ) (2023-04-17T12:48:36Z) - Entity Disambiguation with Entity Definitions [50.01142092276296]
ローカルモデルはEntity Disambiguation (ED)で最近驚くべきパフォーマンスを達成した
それまでの研究は、各候補者のテキスト表現として、ウィキペディアのタイトルのみを使うことに限られていた。
本稿では、この制限に対処し、より表現力のあるテキスト表現がそれを緩和できる範囲について検討する。
提案する6つのベンチマークのうち2つに新たな技術の現状を報告し,未知のパターンに対する一般化能力を強く改善する。
論文 参考訳(メタデータ) (2022-10-11T17:46:28Z) - Improving Span Representation for Domain-adapted Coreference Resolution [19.826381727568222]
我々は、新しいドメインにコア参照モデルをより効率的に適用するための概念知識の利用を提案する。
エンドツーエンドのコア参照モデルに知識を組み込むことで、最も困難なドメイン固有のスパン上でのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2021-09-20T19:41:31Z) - Pixel-Level Cycle Association: A New Perspective for Domain Adaptive
Semantic Segmentation [169.82760468633236]
本稿では,ソースとターゲットの画素ペア間の画素レベルサイクルの関連性を構築することを提案する。
我々の手法は1段階のエンドツーエンドで訓練でき、追加のパラメータは導入しない。
論文 参考訳(メタデータ) (2020-10-31T00:11:36Z) - Revealing the Myth of Higher-Order Inference in Coreference Resolution [20.548299226366193]
本稿では,高次推論(HOI)がコア参照解決の課題に与える影響を解析する。
エンドツーエンドのコアシステムと4つのHOIアプローチ、先行するエンティティ、クラスタリング、クラスタマージを実装しています。
SpanBERTのような高性能エンコーダを使用すれば,HOIの影響は負である。
論文 参考訳(メタデータ) (2020-09-25T03:28:07Z) - Scale-Localized Abstract Reasoning [79.00011351374869]
本稿では,インテリジェンステストとしてよく用いられる抽象的関係推論タスクについて考察する。
いくつかのパターンは空間的有理性を持っているが、他のパターンは意味論に過ぎないため、各クエリを複数の解像度で処理するマルチスケールアーキテクチャを提案する。
異なる解法によって実際に異なるルールが解かれることを示し、組み合わせたマルチスケールアプローチは、全てのベンチマークにおいて、このタスクにおける既存の技術の状態を5~54%上回っていることを示す。
論文 参考訳(メタデータ) (2020-09-20T10:37:29Z) - Active Learning for Coreference Resolution using Discrete Annotation [76.36423696634584]
我々は、コア参照解決におけるアクティブラーニングのためのペアワイズアノテーションを改善した。
提案された参照ペアがコアフェレントでないと判断された場合、アノテータに参照アンテセントを識別するよう依頼する。
既存のベンチマークコアベンチマークデータセットを用いた実験では、この追加質問からの信号が人間のアノテーション時間当たりの大幅なパフォーマンス向上につながることが示された。
論文 参考訳(メタデータ) (2020-04-28T17:17:11Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。