論文の概要: Sentence-Incremental Neural Coreference Resolution
- arxiv url: http://arxiv.org/abs/2305.16947v1
- Date: Fri, 26 May 2023 14:00:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 14:23:44.587775
- Title: Sentence-Incremental Neural Coreference Resolution
- Title(参考訳): 文-増分ニューラルコア参照分解能
- Authors: Matt Grenander, Shay B. Cohen, Mark Steedman
- Abstract要約: 本稿では,シフト・リデュース法で参照境界をマークした後,段階的にクラスタを構築できる文増分ニューラルコア参照解決システムを提案する。
本システムは,(1)文書長の2次複雑さを高い計算コストで引き起こす最先端の非インクリメンタルモデル,(2)段階的に動作するが代名詞を超えて一般化しないメモリネットワークベースモデルである。
- 参考スコア(独自算出の注目度): 32.13574453443377
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a sentence-incremental neural coreference resolution system which
incrementally builds clusters after marking mention boundaries in a
shift-reduce method. The system is aimed at bridging two recent approaches at
coreference resolution: (1) state-of-the-art non-incremental models that incur
quadratic complexity in document length with high computational cost, and (2)
memory network-based models which operate incrementally but do not generalize
beyond pronouns. For comparison, we simulate an incremental setting by
constraining non-incremental systems to form partial coreference chains before
observing new sentences. In this setting, our system outperforms comparable
state-of-the-art methods by 2 F1 on OntoNotes and 7 F1 on the CODI-CRAC 2021
corpus. In a conventional coreference setup, our system achieves 76.3 F1 on
OntoNotes and 45.8 F1 on CODI-CRAC 2021, which is comparable to
state-of-the-art baselines. We also analyze variations of our system and show
that the degree of incrementality in the encoder has a surprisingly large
effect on the resulting performance.
- Abstract(参考訳): 本稿では,シフト・リデュース法で参照境界をマークした後,段階的にクラスタを構築できる文増分ニューラルコア参照解決システムを提案する。
本システムは,(1)文書長の2次複雑性を高い計算コストで生ずる非インクリメンタルモデル,(2)漸進的に動作しながら代名詞以外の一般化を行わないメモリネットワークモデル,の2つのコリファレンス解決手法を橋渡しすることを目的としている。
比較のために,新しい文を観察する前に,非インクリメンタルシステムを制約して部分的コリファレンスチェインを形成することにより,インクリメンタルな設定をシミュレートする。
本システムでは,CODI-CRAC 2021コーパスにおいて,OntoNotesで2F1,CODI-CRAC 2021コーパスで7F1の2F1で比較した。
従来のコア設定では,OntoNotes の76.3 F1 と CODI-CRAC 2021 の45.8 F1 を達成している。
また,システムの変化を分析し,エンコーダのインクリメンタルさの程度が結果として得られる性能に驚くほど大きな影響を与えることを示した。
関連論文リスト
- Autoregressive Large Language Models are Computationally Universal [59.34397993748194]
変換器に基づく言語モデルの自己回帰復号化により,普遍計算が実現可能であることを示す。
まず、2027年の生産規則を持つラグシステムにより、普遍チューリングマシンをシミュレートできることを示す。
我々は、チャーチ・チューリングの論文により、拡張自己回帰(greedy)復号化によるgemini-1.5-pro-001が汎用コンピュータであると結論付けた。
論文 参考訳(メタデータ) (2024-10-04T06:05:17Z) - Filling in the Gaps: Efficient Event Coreference Resolution using Graph
Autoencoder Networks [0.0]
本稿では,低リソースの言語ドメインに適用されたイベント・コンカレンス・レゾリューション(ECR)の新規かつ効率的な手法を提案する。
ECRをグラフ再構成タスクとすることで、深いセマンティック埋め込みと構造的コア参照チェーンの知識を組み合わせることができる。
提案手法は,オランダの大規模イベントコアスコーパスにおいて,古典的参照ペア法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-18T13:44:58Z) - SICNN: Soft Interference Cancellation Inspired Neural Network Equalizers [1.6451639748812472]
我々はSICNNと呼ばれる新しいニューラルネットワーク(NN)ベースのアプローチを提案する。
SICNNはモデルに基づく反復型ソフト干渉キャンセル(SIC)法を深く展開して設計されている。
提案したNNベースの等化器のビット誤り率性能と最先端のモデルベースおよびNNベースのアプローチとの比較を行った。
論文 参考訳(メタデータ) (2023-08-24T06:40:54Z) - SENSEi: Input-Sensitive Compilation for Accelerating GNNs [7.527596018706567]
本稿では,GNN計算の行列再連想に基づいて,異なるスパースおよび密度行列プリミティブ構成を公開するシステムであるSENSEiを提案する。
SENSEiは、(1) 異なるスパースセンス行列合成につながるすべての有効な再連想を列挙するオフラインコンパイルステージで実行され、入出力プルーニング技術を用いて、明らかに利益のない候補を抽出する。
幅広い構成において、SENSEiは最大2.012times$と1.85times$のグラフ畳み込みネットワークで、最大6.294times$と16.274のスピードアップを達成する。
論文 参考訳(メタデータ) (2023-06-27T02:24:05Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - Hybrid Rule-Neural Coreference Resolution System based on Actor-Critic
Learning [53.73316523766183]
コアレゾリューションシステムは2つの主要なタスクに取り組む必要がある。
ひとつのタスクは、潜在的な言及のすべてを検出することであり、もう1つは、可能な言及ごとに前者のリンクを学習することである。
本稿では,アクター・クリティカル・ラーニングに基づく複合ルール・ニューラル・コア参照解決システムを提案する。
論文 参考訳(メタデータ) (2022-12-20T08:55:47Z) - UnitY: Two-pass Direct Speech-to-speech Translation with Discrete Units [64.61596752343837]
本稿では,まずテキスト表現を生成し,離散音響単位を予測する2パス直接S2STアーキテクチャであるUnitYを提案する。
第1パスデコーダのサブワード予測によりモデル性能を向上させる。
提案手法は,第2パスのスペクトルを予測しても性能が向上することを示す。
論文 参考訳(メタデータ) (2022-12-15T18:58:28Z) - DisCoDisCo at the DISRPT2021 Shared Task: A System for Discourse
Segmentation, Classification, and Connective Detection [4.371388370559826]
我々のシステムはDisCoDisCoと呼ばれ、コンテキスト化された単語の埋め込みを手作りの機能で強化する。
関係分類の結果は、新しい2021ベンチマークで強い性能を示している。
複数の事前学習されたトランスフォーマーベース言語モデルの部分評価は、Next Sentence Predictionタスクで事前学習されたモデルが関係分類に最適であることを示している。
論文 参考訳(メタデータ) (2021-09-20T18:11:05Z) - Structured Reordering for Modeling Latent Alignments in Sequence
Transduction [86.94309120789396]
本稿では,分離可能な置換の辺りを正確に推定する効率的な動的プログラミングアルゴリズムを提案する。
結果のSeq2seqモデルは、合成問題やNLPタスクの標準モデルよりも体系的な一般化が優れている。
論文 参考訳(メタデータ) (2021-06-06T21:53:54Z) - Pseudo-Convolutional Policy Gradient for Sequence-to-Sequence
Lip-Reading [96.48553941812366]
唇読解は唇運動系列から音声内容を推測することを目的としている。
seq2seqモデルの伝統的な学習プロセスには2つの問題がある。
本稿では,これら2つの問題に対処するために,PCPGに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2020-03-09T09:12:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。