論文の概要: Improving LLMs' Learning for Coreference Resolution
- arxiv url: http://arxiv.org/abs/2509.11466v1
- Date: Sun, 14 Sep 2025 23:08:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.097673
- Title: Improving LLMs' Learning for Coreference Resolution
- Title(参考訳): 干渉解消のためのLLM学習の改善
- Authors: Yujian Gan, Yuan Liang, Yanni Lin, Juntao Yu, Massimo Poesio,
- Abstract要約: CR(Coreference Resolution)は多くのNLPタスクにおいて重要であるが、既存のLCMでは幻覚や低パフォーマンスに悩まされている。
本稿では,共同推論を用いたリバーストレーニングと反復文書生成という2つの新しい手法を提案する。
- 参考スコア(独自算出の注目度): 6.297118364638943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Coreference Resolution (CR) is crucial for many NLP tasks, but existing LLMs struggle with hallucination and under-performance. In this paper, we investigate the limitations of existing LLM-based approaches to CR-specifically the Question-Answering (QA) Template and Document Template methods and propose two novel techniques: Reversed Training with Joint Inference and Iterative Document Generation. Our experiments show that Reversed Training improves the QA Template method, while Iterative Document Generation eliminates hallucinations in the generated source text and boosts coreference resolution. Integrating these methods and techniques offers an effective and robust solution to LLM-based coreference resolution.
- Abstract(参考訳): CR(Coreference Resolution)は多くのNLPタスクにおいて重要であるが、既存のLCMでは幻覚や低パフォーマンスに悩まされている。
本稿では,既存のLCMベースのCR-特にQAテンプレートと文書テンプレート手法の限界について検討し,共同推論によるリバーストレーニングと反復文書生成という2つの新しい手法を提案する。
実験の結果、Reversed TrainingはQAテンプレート法を改善し、Iterative Document Generationは生成したソーステキストの幻覚を排除し、コア参照の解像度を向上することがわかった。
これらの手法と技法を統合することは、LLMベースのコア参照解決に対する効果的で堅牢なソリューションを提供する。
関連論文リスト
- GEM: Empowering LLM for both Embedding Generation and Language Understanding [11.081595808236239]
高品質なテキスト埋め込みを生成するために,GEM(Generative Embedding large Language Model)を提案する。
本手法では,新たな特殊トークンをテキスト本体に挿入し,アテンションマスクを操作することでテキストの要約埋め込みを生成する。
提案手法は,従来のNLP性能を維持しつつ,最先端のテキスト埋め込み機能でLCMを活用できることが示唆された。
論文 参考訳(メタデータ) (2025-06-04T18:02:07Z) - Enhancing Annotated Bibliography Generation with LLM Ensembles [0.0]
大規模言語モデルアンサンブルは、学術的なタスクにおけるモデル性能を高めるために導入され、検証される。
その結果,アノテーションの品質が38%向上し,コンテンツ冗長性が51%低下した。
論文 参考訳(メタデータ) (2024-12-30T11:07:05Z) - Ground Every Sentence: Improving Retrieval-Augmented LLMs with Interleaved Reference-Claim Generation [51.8188846284153]
分散テキスト生成(ATG)は,RAGシステムにおける信頼性と妥当性を高めるために提案される。
本稿では,参照と回答を段階的に交互に生成する詳細なATG手法であるReClaimを提案する。
広範囲な実験により,ReClaimの有効性が検証され,90%の引用精度が得られた。
論文 参考訳(メタデータ) (2024-07-01T20:47:47Z) - Improving Retrieval for RAG based Question Answering Models on Financial Documents [0.046603287532620746]
本稿では,RAGパイプラインの既存の制約について検討し,テキスト検索の方法を紹介する。
高度なチャンキングテクニック、クエリ拡張、メタデータアノテーションの組み込み、再ランク付けアルゴリズムの適用、埋め込みアルゴリズムの微調整などの戦略を練っている。
論文 参考訳(メタデータ) (2024-03-23T00:49:40Z) - LLMRefine: Pinpointing and Refining Large Language Models via Fine-Grained Actionable Feedback [65.84061725174269]
最近の大規模言語モデル(LLM)は、世代品質を改善するために人間のフィードバックを活用している。
LLMの出力を最適化する推論時間最適化手法であるLLMRefineを提案する。
機械翻訳、長文質問応答(QA)、話題要約を含む3つのテキスト生成タスクについて実験を行った。
LLMRefineは、すべてのベースラインアプローチを一貫して上回り、翻訳タスクの1.7 MetricXポイント、ASQAの8.1 ROUGE-L、トピックの要約の2.2 ROUGE-Lの改善を実現している。
論文 参考訳(メタデータ) (2023-11-15T19:52:11Z) - Modeling Uncertainty and Using Post-fusion as Fallback Improves Retrieval Augmented Generation with LLMs [80.74263278847063]
検索されたパスと大きな言語モデル(LLM)の統合は、オープンドメインの質問応答の改善に大きく貢献している。
本稿では,検索したパスをLLMと組み合わせて回答生成を向上させる方法について検討する。
論文 参考訳(メタデータ) (2023-08-24T05:26:54Z) - Automatically Correcting Large Language Models: Surveying the landscape
of diverse self-correction strategies [104.32199881187607]
大規模言語モデル(LLM)は、幅広いNLPタスクで顕著な性能を示した。
これらの欠陥を正すための有望なアプローチは自己補正であり、LLM自体が自身の出力で問題を修正するために誘導される。
本稿では,この新技術について概観する。
論文 参考訳(メタデータ) (2023-08-06T18:38:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。