論文の概要: Free the Plural: Unrestricted Split-Antecedent Anaphora Resolution
- arxiv url: http://arxiv.org/abs/2011.00245v1
- Date: Sat, 31 Oct 2020 11:21:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 04:47:05.490048
- Title: Free the Plural: Unrestricted Split-Antecedent Anaphora Resolution
- Title(参考訳): Free the Plural: Unrestricted Split-Antecedent Anaphora Resolution
- Authors: Juntao Yu, Nafise Sadat Moosavi, Silviu Paun and Massimo Poesio
- Abstract要約: そこで本研究では,分割型アパルトの非制限分解能に関する最初のモデルを提案する。
スパーシリティ問題に対処することで、性能を大幅に改善できることが示される。
ゴールドアノテートされたARRAUコーパスの評価は、アウトベストモデルが3つの補助コーパスの組み合わせを使用していることを示している。
- 参考スコア(独自算出の注目度): 23.843305521306227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Now that the performance of coreference resolvers on the simpler forms of
anaphoric reference has greatly improved, more attention is devoted to more
complex aspects of anaphora. One limitation of virtually all coreference
resolution models is the focus on single-antecedent anaphors. Plural anaphors
with multiple antecedents-so-called split-antecedent anaphors (as in John met
Mary. They went to the movies) have not been widely studied, because they are
not annotated in ONTONOTES and are relatively infrequent in other corpora. In
this paper, we introduce the first model for unrestricted resolution of
split-antecedent anaphors. We start with a strong baseline enhanced by BERT
embeddings, and show that we can substantially improve its performance by
addressing the sparsity issue. To do this, we experiment with auxiliary corpora
where split-antecedent anaphors were annotated by the crowd, and with transfer
learning models using element-of bridging references and single-antecedent
coreference as auxiliary tasks. Evaluation on the gold annotated ARRAU corpus
shows that the out best model uses a combination of three auxiliary corpora
achieved F1 scores of 70% and 43.6% when evaluated in a lenient and strict
setting, respectively, i.e., 11 and 21 percentage points gain when compared
with our baseline.
- Abstract(参考訳): 照応参照の単純な形式に対するコリファレンスレゾルバのパフォーマンスが大幅に向上した今、より多くの注意が照応のより複雑な側面に向けられている。
事実上全てのコリファレンス解決モデルの制限の一つは、単発アナフォに焦点をあてることである。
複数の先行する複数のアナプホル(ジョンがメアリーに会ったように)を持つ複数のアナプホルは、オントノテでは注釈がなく、他のコーパスでは比較的少ないため、広く研究されていない。
本稿では,スプリット・アンテシデント・アナフォの非制限分解に対する最初のモデルを提案する。
まずBERT埋め込みによって強化された強いベースラインから始め、スパーシティ問題に対処することで、その性能を大幅に改善できることを示します。
そこで,本研究では,参加者がアノテートした補助コーパスと,要素のブリッジ参照と単一集約コア参照を用いた移動学習モデルを用いて実験を行った。
ゴールドアノテートされたARRAUコーパスの評価では, 3つの補助コーパスによるF1スコアの70%と43.6%の組み合わせを, 厳密な条件で評価すると, ベースラインと比較すると11点, 21ポイントの利得が得られた。
関連論文リスト
- ASTE Transformer Modelling Dependencies in Aspect-Sentiment Triplet Extraction [2.07180164747172]
Aspect-Sentiment Triplet extract (ASTE) は、ある文から三重項(アスペクトフレーズ、意見フレーズ、感情極性)を抽出するタスクである。
最近の最先端手法は、まず与えられた文から可能な全てのスパンを抽出することで、このタスクにアプローチする。
論文 参考訳(メタデータ) (2024-09-23T16:49:47Z) - SPLICE: A Singleton-Enhanced PipeLIne for Coreference REsolution [11.062090350704617]
シングルトンは、つまりテキストの中で一度だけ言及される不明瞭さは、理論的な観点から人間が言論を理解する方法において重要であると言及している。
OntoNotesベンチマークでシングルトン参照スパンが欠如しているため、英語のエンドツーエンドのニューラルコア参照解決にそれらの検出を組み込もうとする以前の試みは妨げられていた。
本稿では,既存のネストネストNERシステムとOntoNotes構文木から派生した特徴を組み合わせることで,この制限に対処する。
論文 参考訳(メタデータ) (2024-03-25T22:46:16Z) - Sentiment Analysis through LLM Negotiations [58.67939611291001]
感情分析の標準的なパラダイムは、単一のLCMに依存して、その決定を1ラウンドで行うことである。
本稿では,感情分析のためのマルチLLMネゴシエーションフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-03T12:35:29Z) - NapSS: Paragraph-level Medical Text Simplification via Narrative
Prompting and Sentence-matching Summarization [46.772517928718216]
そこで我々はNapSSと呼ばれる2段階戦略を提案する。
NapSSは、オリジナルの物語の流れが保存されていることを保証しながら、関連コンテンツを特定し、単純化する。
本モデルは,英語医療コーパスのSeq2seqベースラインよりも有意に優れている。
論文 参考訳(メタデータ) (2023-02-11T02:20:25Z) - Enriching Relation Extraction with OpenIE [70.52564277675056]
関係抽出(RE)は情報抽出(IE)のサブ分野である
本稿では,オープン情報抽出(OpenIE)の最近の取り組みがREの課題の改善にどのように役立つかを検討する。
本稿では,2つの注釈付きコーパスであるKnowledgeNetとFewRelを用いた実験により,拡張モデルの精度向上を実証した。
論文 参考訳(メタデータ) (2022-12-19T11:26:23Z) - Entity Disambiguation with Entity Definitions [50.01142092276296]
ローカルモデルはEntity Disambiguation (ED)で最近驚くべきパフォーマンスを達成した
それまでの研究は、各候補者のテキスト表現として、ウィキペディアのタイトルのみを使うことに限られていた。
本稿では、この制限に対処し、より表現力のあるテキスト表現がそれを緩和できる範囲について検討する。
提案する6つのベンチマークのうち2つに新たな技術の現状を報告し,未知のパターンに対する一般化能力を強く改善する。
論文 参考訳(メタデータ) (2022-10-11T17:46:28Z) - Scoring Coreference Chains with Split-Antecedent Anaphors [23.843305521306227]
そこで本研究では,既存メトリクスを識別アナフォラに一般化する技術的問題に対する解法を提案する。
これはアナフォラ(英語版)やコア参照(英語版)に関する文献で初めてのそのような提案であり、分割された複数の参照と談話のデクシスの両方を評価するのに成功している。
論文 参考訳(メタデータ) (2022-05-24T19:07:36Z) - Does BERT really agree ? Fine-grained Analysis of Lexical Dependence on
a Syntactic Task [70.29624135819884]
目的の構文テンプレート上で,BERTが語彙非依存の主観値数アグリーメント(NA)を実行できる範囲について検討した。
名詞文では,単純なテンプレートに対してモデルがよく一般化されるが,1つのアトラクターが存在する場合,語彙非依存の構文一般化を行うことができないことが示唆された。
論文 参考訳(メタデータ) (2022-04-14T11:33:15Z) - Stay Together: A System for Single and Split-antecedent Anaphora
Resolution [19.98823717287972]
Split-antecedent anaphoraは、単一のantecedent anaphoraよりもまれでより複雑である。
そこで本研究では,単独と分割型の両方のアナフォを解決し,より現実的な設定で評価するシステムを提案する。
論文 参考訳(メタデータ) (2021-04-12T10:01:08Z) - When Hearst Is not Enough: Improving Hypernymy Detection from Corpus
with Distributional Models [59.46552488974247]
本稿では,大きなテキストコーパスの助けを借りて,単語 (x, y) 間のis-a関係が存在するかどうかを論じる。
近年の研究では、大規模なハーストペアを抽出して給餌し、目に見えない(x, y)ペアの親和性が緩和された場合、パターンベースのペアの方が優れていることが示唆されている。
本稿では,これらの特定の事例の非無視的存在を初めて定量化し,その場合の分布法がパターンベースの事例を補うのに最適であることを示す。
論文 参考訳(メタデータ) (2020-10-10T08:34:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。