論文の概要: Revealing the Myth of Higher-Order Inference in Coreference Resolution
- arxiv url: http://arxiv.org/abs/2009.12013v2
- Date: Mon, 28 Sep 2020 22:47:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 22:23:07.769799
- Title: Revealing the Myth of Higher-Order Inference in Coreference Resolution
- Title(参考訳): 相関分解における高次推論の神話の展開
- Authors: Liyan Xu, Jinho D. Choi
- Abstract要約: 本稿では,高次推論(HOI)がコア参照解決の課題に与える影響を解析する。
エンドツーエンドのコアシステムと4つのHOIアプローチ、先行するエンティティ、クラスタリング、クラスタマージを実装しています。
SpanBERTのような高性能エンコーダを使用すれば,HOIの影響は負である。
- 参考スコア(独自算出の注目度): 20.548299226366193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper analyzes the impact of higher-order inference (HOI) on the task of
coreference resolution. HOI has been adapted by almost all recent coreference
resolution models without taking much investigation on its true effectiveness
over representation learning. To make a comprehensive analysis, we implement an
end-to-end coreference system as well as four HOI approaches, attended
antecedent, entity equalization, span clustering, and cluster merging, where
the latter two are our original methods. We find that given a high-performing
encoder such as SpanBERT, the impact of HOI is negative to marginal, providing
a new perspective of HOI to this task. Our best model using cluster merging
shows the Avg-F1 of 80.2 on the CoNLL 2012 shared task dataset in English.
- Abstract(参考訳): 本稿では,高次推論(HOI)がコア参照解決の課題に与える影響を解析する。
HOIは、表現学習よりも真の有効性について多くの研究をすることなく、最近のほとんど全てのコア参照解決モデルに適応してきた。
包括的な分析を行うために, エンドツーエンドのコリファレンスシステムと4つのhoiアプローチ, 参加者の先行性, エンティティ等化, スパンクラスタリング, クラスタマージを実装した。
SpanBERTのような高性能エンコーダが与えられた場合、HOIの影響は負の差であり、このタスクに対するHOIの新しい視点を提供する。
クラスタマージによる最良のモデルは、英語で共有されたCoNLL 2012タスクデータセットの80.2のAvg-F1を示す。
関連論文リスト
- Hybrid Rule-Neural Coreference Resolution System based on Actor-Critic
Learning [53.73316523766183]
コアレゾリューションシステムは2つの主要なタスクに取り組む必要がある。
ひとつのタスクは、潜在的な言及のすべてを検出することであり、もう1つは、可能な言及ごとに前者のリンクを学習することである。
本稿では,アクター・クリティカル・ラーニングに基づく複合ルール・ニューラル・コア参照解決システムを提案する。
論文 参考訳(メタデータ) (2022-12-20T08:55:47Z) - Neural Coreference Resolution based on Reinforcement Learning [53.73316523766183]
コアレゾリューションシステムは2つのサブタスクを解決する必要がある。
ひとつのタスクは、潜在的な言及のすべてを検出することであり、もう1つは、可能な言及ごとに前者のリンクを学習することである。
本稿では,アクターをベースとした強化学習型ニューラルコア参照分解システムを提案する。
論文 参考訳(メタデータ) (2022-12-18T07:36:35Z) - Deep Active Ensemble Sampling For Image Classification [8.31483061185317]
アクティブラーニングフレームワークは、最も有益なデータポイントのラベル付けを積極的に要求することで、データアノテーションのコストを削減することを目的としている。
提案手法には、不確実性に基づく手法、幾何学的手法、不確実性に基づく手法と幾何学的手法の暗黙の組み合わせなどがある。
本稿では, サンプル選択戦略における効率的な探索・探索トレードオフを実現するために, 不確実性に基づくフレームワークと幾何学的フレームワークの両方の最近の進歩を革新的に統合する。
本フレームワークは,(1)正確な後続推定,(2)計算オーバーヘッドと高い精度のトレードオフの2つの利点を提供する。
論文 参考訳(メタデータ) (2022-10-11T20:20:20Z) - GCoNet+: A Stronger Group Collaborative Co-Salient Object Detector [156.43671738038657]
本稿では,GCoNet+と呼ばれる新しいグループ協調学習ネットワークを提案する。
GCoNet+は自然界における共存対象を効果的かつ効率的に識別することができる。
論文 参考訳(メタデータ) (2022-05-30T23:49:19Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Local and Global Context-Based Pairwise Models for Sentence Ordering [0.0]
本稿では,局所的およびグローバルな文脈に基づくペアワイズ・オーダリング・ストラテジーの集合を提示する。
提案手法は,この段落の豊富なグローバルな文脈情報を用いて,ペアの順序を予測する。
提案した2つのデコード戦略の解析は、ペアワイズモデルにおけるエラーの伝播をよりよく説明するのに役立つ。
論文 参考訳(メタデータ) (2021-10-08T17:57:59Z) - Neighborhood Contrastive Learning for Novel Class Discovery [79.14767688903028]
我々は,クラスタリング性能に重要な識別表現を学習するために,Neighborhood Contrastive Learningという新しいフレームワークを構築した。
これらの2つの成分がクラスタリング性能に大きく寄与し、我々のモデルが最先端の手法よりも大きなマージンで優れていることを実験的に実証した。
論文 参考訳(メタデータ) (2021-06-20T17:34:55Z) - Novel Human-Object Interaction Detection via Adversarial Domain
Generalization [103.55143362926388]
本研究では,新たな人-物間相互作用(HOI)検出の問題点を考察し,モデルの一般化能力を向上させることを目的とした。
この課題は、主に対象と述語の大きな構成空間に起因し、全ての対象と述語の組み合わせに対する十分な訓練データが欠如している。
本稿では,予測のためのオブジェクト指向不変の特徴を学習するために,対数領域の一般化の統一的な枠組みを提案する。
論文 参考訳(メタデータ) (2020-05-22T22:02:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。