論文の概要: Neural Coreference Resolution based on Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2212.09028v1
- Date: Sun, 18 Dec 2022 07:36:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 16:21:20.348850
- Title: Neural Coreference Resolution based on Reinforcement Learning
- Title(参考訳): 強化学習に基づくニューラルコア参照分解能
- Authors: Yu Wang and Hongxia Jin
- Abstract要約: コアレゾリューションシステムは2つのサブタスクを解決する必要がある。
ひとつのタスクは、潜在的な言及のすべてを検出することであり、もう1つは、可能な言及ごとに前者のリンクを学習することである。
本稿では,アクターをベースとした強化学習型ニューラルコア参照分解システムを提案する。
- 参考スコア(独自算出の注目度): 53.73316523766183
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The target of a coreference resolution system is to cluster all mentions that
refer to the same entity in a given context. All coreference resolution systems
need to solve two subtasks; one task is to detect all of the potential
mentions, and the other is to learn the linking of an antecedent for each
possible mention. In this paper, we propose a reinforcement learning
actor-critic-based neural coreference resolution system, which can achieve both
mention detection and mention clustering by leveraging an actor-critic deep
reinforcement learning technique and a joint training algorithm. We experiment
on the BERT model to generate different input span representations. Our model
with the BERT span representation achieves the state-of-the-art performance
among the models on the CoNLL-2012 Shared Task English Test Set.
- Abstract(参考訳): コリファレンス解決システムの目標は、与えられたコンテキストで同じエンティティを参照するすべての言及をクラスタ化することです。
すべてのコア参照解決システムは2つのサブタスクを解く必要がある: 1つのタスクは潜在的な言及を全て検出すること、もう1つは、可能な言及ごとに先行詞のリンクを学習することである。
本稿では,アクタクリティカルな深層強化学習技術とジョイントトレーニングアルゴリズムを活用することで,参照検出と参照クラスタリングの両方を実現することができる強化学習アクタベースのニューラルコア参照解決システムを提案する。
BERTモデルを用いて異なる入力スパン表現を生成する。
BERTスパン表現を用いた本モデルは,CoNLL-2012Shared Task English Test Setのモデル間の最先端性能を実現する。
関連論文リスト
- Light Coreference Resolution for Russian with Hierarchical Discourse
Features [0.0]
ニューラルコア参照解決モデルに修辞情報を組み込んだ新しいアプローチを提案する。
部分的に微調整された多言語エンティティ認識言語モデルLUKEを用いて、エンドツーエンドのスパンベースコア参照リゾルバを実装した。
言及間の修辞的距離を用いた最良のモデルでは、開発セット(74.6% F1)で1位、共有タスク(73.3% F1)で2位にランクされている。
論文 参考訳(メタデータ) (2023-06-02T11:41:24Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - USER: Unified Semantic Enhancement with Momentum Contrast for Image-Text
Retrieval [115.28586222748478]
Image-Text Retrieval (ITR) は、与えられたクエリに意味のあるターゲットインスタンスを、他のモダリティから検索することを目的としている。
既存のアプローチは通常、2つの大きな制限に悩まされる。
論文 参考訳(メタデータ) (2023-01-17T12:42:58Z) - Hybrid Rule-Neural Coreference Resolution System based on Actor-Critic
Learning [53.73316523766183]
コアレゾリューションシステムは2つの主要なタスクに取り組む必要がある。
ひとつのタスクは、潜在的な言及のすべてを検出することであり、もう1つは、可能な言及ごとに前者のリンクを学習することである。
本稿では,アクター・クリティカル・ラーニングに基づく複合ルール・ニューラル・コア参照解決システムを提案する。
論文 参考訳(メタデータ) (2022-12-20T08:55:47Z) - DualNER: A Dual-Teaching framework for Zero-shot Cross-lingual Named
Entity Recognition [27.245171237640502]
DualNERは、注釈付きソース言語コーパスとラベルなしターゲット言語テキストの両方をフル活用するためのフレームワークである。
NERの2つの相補的な学習パラダイム、すなわちシーケンスラベリングとスパン予測を統合マルチタスクフレームワークに統合する。
論文 参考訳(メタデータ) (2022-11-15T12:50:59Z) - Learning to Relate Depth and Semantics for Unsupervised Domain
Adaptation [87.1188556802942]
教師なしドメイン適応(UDA)設定において,視覚的タスク関係を符号化してモデル性能を向上させる手法を提案する。
本稿では,意味的および深さ的予測のタスク依存性を符号化する新しいクロスタスク関係層(ctrl)を提案する。
さらに、セマンティック擬似ラベルを利用してターゲットドメインを監督する反復自己学習(ISL)トレーニングスキームを提案する。
論文 参考訳(メタデータ) (2021-05-17T13:42:09Z) - Distribution Alignment: A Unified Framework for Long-tail Visual
Recognition [52.36728157779307]
長尾視覚認識のための分散アライメント戦略を提案する。
次に,二段階学習における一般化された再重み付け法を導入して,事前のクラスバランスをとる。
提案手法は, 4つの認識タスクすべてにおいて, 単純で統一されたフレームワークを用いて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-03-30T14:09:53Z) - Adaptive Prototypical Networks with Label Words and Joint Representation
Learning for Few-Shot Relation Classification [17.237331828747006]
本研究は,少ショット関係分類(FSRC)に焦点を当てる。
クラスプロトタイプの表現にラベル単語を追加するための適応的混合機構を提案する。
FewRelでは、異なる数ショット(FS)設定で実験が行われた。
論文 参考訳(メタデータ) (2021-01-10T11:25:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。