論文の概要: CAW-coref: Conjunction-Aware Word-level Coreference Resolution
- arxiv url: http://arxiv.org/abs/2310.06165v2
- Date: Thu, 19 Oct 2023 17:31:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 18:48:24.051449
- Title: CAW-coref: Conjunction-Aware Word-level Coreference Resolution
- Title(参考訳): caw-coref:コラボレーティブアウェアワードレベルのコリファレンス解決
- Authors: Karel D'Oosterlinck, Semere Kiros Bitew, Brandon Papineau, Christopher
Potts, Thomas Demeester, Chris Develder
- Abstract要約: State-of-the-the-art coreference resolutions systems は文書ごとに複数の LLM コールに依存する。
WL-corefはより効率的でありながら、これらのSOTAシステムの性能の96.6%を達成している。
OntoNotes テストセットのパフォーマンスを 0.9% F1 で改善する,シンプルで効果的なソリューションを提供しています。
- 参考スコア(独自算出の注目度): 23.847251481558107
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: State-of-the-art coreference resolutions systems depend on multiple LLM calls
per document and are thus prohibitively expensive for many use cases (e.g.,
information extraction with large corpora). The leading word-level coreference
system (WL-coref) attains 96.6% of these SOTA systems' performance while being
much more efficient. In this work, we identify a routine yet important failure
case of WL-coref: dealing with conjoined mentions such as 'Tom and Mary'. We
offer a simple yet effective solution that improves the performance on the
OntoNotes test set by 0.9% F1, shrinking the gap between efficient word-level
coreference resolution and expensive SOTA approaches by 34.6%. Our
Conjunction-Aware Word-level coreference model (CAW-coref) and code is
available at https://github.com/KarelDO/wl-coref.
- Abstract(参考訳): 最先端のコリファレンスレゾリューションシステムはドキュメント毎の複数のllmコールに依存するため、多くのユースケース(例えば、大きなコーパスによる情報抽出)では禁止的に高価である。
wl-coref (leading word-level coreference system) は sota システムの性能の96.6%を達成するが、より効率的である。
本稿では,WL-corefの日常的かつ重要な障害事例を特定する。
我々は,OntoNotesテストセットの性能を0.9%F1で改善し,効率的な単語レベルのコア参照解決と高価なSOTAアプローチのギャップを34.6%削減する,シンプルで効果的なソリューションを提供する。
私たちのConjunction-Aware Word-level coreference model (CAW-coref)とコードはhttps://github.com/KarelDO/wl-coref.comで公開されている。
関連論文リスト
- Unleashing Multi-Hop Reasoning Potential in Large Language Models through Repetition of Misordered Context [31.091013417498825]
文脈反復(CoRe)という,シンプルで効果的な手法を提案する。
CoReは、モデルに対して最適な順序でサポートドキュメントが提示されることを保証するために、コンテキストを繰り返し提示することで、モデルに促す。
マルチホップQAタスクではF1スコアが最大30%向上し,合成タスクでは最大70%向上した。
論文 参考訳(メタデータ) (2024-10-09T17:41:53Z) - SCOI: Syntax-augmented Coverage-based In-context Example Selection for Machine Translation [13.87098305304058]
そこで本研究では,機械翻訳(MT)における文脈内例の選択に統語的知識を導入する。
我々は、構文拡張されたコベレージベースのIn-context example selection (SCOI) という新しい戦略を提案する。
提案するSCOIは,すべての学習自由手法の中で,平均COMETスコアが最も高い。
論文 参考訳(メタデータ) (2024-08-09T05:25:17Z) - Retrieval with Learned Similarities [2.729516456192901]
最先端の検索アルゴリズムは、学習された類似点に移行した。
そこで本研究では,Mixture-of-Logits (MoL) を実証的に実現し,多様な検索シナリオにおいて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2024-07-22T08:19:34Z) - REXEL: An End-to-end Model for Document-Level Relation Extraction and Entity Linking [11.374031643273941]
REXELは文書レベルcIE(DocIE)の共同作業のための高効率かつ高精度なモデルである
同様の環境では、競合する既存のアプローチよりも平均11倍高速です。
速度と精度の組み合わせにより、REXELはWebスケールで構造化された情報を抽出する正確なコスト効率のシステムとなる。
論文 参考訳(メタデータ) (2024-04-19T11:04:27Z) - Instruction Distillation Makes Large Language Models Efficient Zero-shot
Rankers [56.12593882838412]
本稿では,文書のランク付けのための新しい命令蒸留手法を提案する。
まず、複雑な命令で効果的なペアワイズ手法を用いて文書をランク付けし、簡単な指示で教師の予測をポイントワイズ方式で抽出する。
提案手法は,MonoT5のような既存の教師付きメソッドの性能を超越し,最先端のゼロショット手法と同等である。
論文 参考訳(メタデータ) (2023-11-02T19:16:21Z) - Filling in the Gaps: Efficient Event Coreference Resolution using Graph
Autoencoder Networks [0.0]
本稿では,低リソースの言語ドメインに適用されたイベント・コンカレンス・レゾリューション(ECR)の新規かつ効率的な手法を提案する。
ECRをグラフ再構成タスクとすることで、深いセマンティック埋め込みと構造的コア参照チェーンの知識を組み合わせることができる。
提案手法は,オランダの大規模イベントコアスコーパスにおいて,古典的参照ペア法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-18T13:44:58Z) - DAMO-NLP at SemEval-2023 Task 2: A Unified Retrieval-augmented System
for Multilingual Named Entity Recognition [94.90258603217008]
MultiCoNER RNum2共有タスクは、細粒度でノイズの多いシナリオにおいて、多言語の名前付きエンティティ認識(NER)に取り組むことを目的としている。
MultiCoNER RNum1の以前のトップシステムは、ナレッジベースまたはガゼッタを組み込んでいる。
細粒度多言語NERのための統一検索拡張システム(U-RaNER)を提案する。
論文 参考訳(メタデータ) (2023-05-05T16:59:26Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z) - Autoregressive Search Engines: Generating Substrings as Document
Identifiers [53.0729058170278]
自動回帰言語モデルは、回答を生成するデファクト標準として現れています。
これまでの研究は、探索空間を階層構造に分割する方法を探究してきた。
本研究では,検索空間の任意の構造を強制しない代替として,経路内のすべてのngramを識別子として使用することを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:45:01Z) - Highly Parallel Autoregressive Entity Linking with Discriminative
Correction [51.947280241185]
自己回帰リンクを全ての潜在的な言及に対して並列化する,非常に効率的な手法を提案する。
我々のモデルは以前の生成法より70倍高速で精度が高い。
論文 参考訳(メタデータ) (2021-09-08T17:28:26Z) - Conditioned Text Generation with Transfer for Closed-Domain Dialogue
Systems [65.48663492703557]
条件付き変分オートエンコーダを用いて,意図特化文の生成を最適に学習し,制御する方法を示す。
クエリ転送と呼ばれる新しいプロトコルを導入し、大規模で遅延のないデータセットを活用できるようにします。
論文 参考訳(メタデータ) (2020-11-03T14:06:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。