論文の概要: SummaC: Re-Visiting NLI-based Models for Inconsistency Detection in
Summarization
- arxiv url: http://arxiv.org/abs/2111.09525v1
- Date: Thu, 18 Nov 2021 05:02:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 13:49:58.553925
- Title: SummaC: Re-Visiting NLI-based Models for Inconsistency Detection in
Summarization
- Title(参考訳): SummaC: 要約における矛盾検出のためのNLIモデルの再視覚化
- Authors: Philippe Laban and Tobias Schnabel and Paul N. Bennett and Marti A.
Hearst
- Abstract要約: 要約の鍵となる要件は、実際に入力文書と整合性を持つことである。
これまでの研究では、不整合検出に適用した場合、自然言語推論モデルが競合的に動作しないことが判明した。
我々は,NLIモデルがこのタスクに有効に使用できるSummaCConvという,高効率で軽量な手法を提案する。
- 参考スコア(独自算出の注目度): 27.515873862013006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the summarization domain, a key requirement for summaries is to be
factually consistent with the input document. Previous work has found that
natural language inference (NLI) models do not perform competitively when
applied to inconsistency detection. In this work, we revisit the use of NLI for
inconsistency detection, finding that past work suffered from a mismatch in
input granularity between NLI datasets (sentence-level), and inconsistency
detection (document level). We provide a highly effective and light-weight
method called SummaCConv that enables NLI models to be successfully used for
this task by segmenting documents into sentence units and aggregating scores
between pairs of sentences. On our newly introduced benchmark called SummaC
(Summary Consistency) consisting of six large inconsistency detection datasets,
SummaCConv obtains state-of-the-art results with a balanced accuracy of 74.4%,
a 5% point improvement compared to prior work. We make the models and datasets
available: https://github.com/tingofurro/summac
- Abstract(参考訳): 要約領域では、要約の鍵となる要件は、実際に入力文書と整合することである。
これまでの研究では、自然言語推論(NLI)モデルが不整合検出に適用しても競合しないことがわかった。
本研究では,NLIデータセット(文レベル)と不整合検出(文書レベル)の入力粒度のミスマッチに悩まされていることから,非整合検出におけるNLIの使用を再考する。
我々は,文書を文単位に分割し,一対の文間のスコアを集約することにより,NLIモデルをこのタスクにうまく利用することができるSummaCConvという,高効率で軽量な手法を提案する。
6つの大きな不整合検出データセットからなるSummaC(Summary Consistency)と呼ばれる新しいベンチマークで、SummaCConvは、バランスの取れた精度74.4%の最先端結果を得る。
モデルとデータセットを利用可能にする。 https://github.com/tingofurro/summac
関連論文リスト
- Using Similarity to Evaluate Factual Consistency in Summaries [2.7595794227140056]
抽象要約器は流動的な要約を生成するが、生成したテキストの事実性は保証されない。
本稿では,ゼロショット事実性評価尺度であるSBERTScoreを提案する。
実験の結果,SBERTScoreでは,各手法の強度が異なることが示唆された。
論文 参考訳(メタデータ) (2024-09-23T15:02:38Z) - Noisy Pair Corrector for Dense Retrieval [59.312376423104055]
ノイズペアコレクタ(NPC)と呼ばれる新しい手法を提案する。
NPCは検出モジュールと修正モジュールから構成される。
我々は,テキスト検索ベンチマークのNatural QuestionとTriviaQA,コード検索ベンチマークのStaQCとSO-DSで実験を行った。
論文 参考訳(メタデータ) (2023-11-07T08:27:14Z) - LLMs as Factual Reasoners: Insights from Existing Benchmarks and Beyond [135.8013388183257]
そこで我々は,SummEditsと呼ばれる10ドメインのベンチマークで不整合検出ベンチマークを作成し,実装する新しいプロトコルを提案する。
ほとんどのLLMはSummEditsで苦労しており、パフォーマンスはランダムに近い。
最も優れたモデルであるGPT-4は、推定された人間のパフォーマンスよりも8%低い。
論文 参考訳(メタデータ) (2023-05-23T21:50:06Z) - Revisiting text decomposition methods for NLI-based factuality scoring
of summaries [9.044665059626958]
細粒度分解が必ずしも事実性スコアの勝利戦略であるとは限らないことを示す。
また,従来提案されていたエンテーメントに基づくスコアリング手法の小さな変更により,性能が向上することを示した。
論文 参考訳(メタデータ) (2022-11-30T09:54:37Z) - Evaluating the Factual Consistency of Large Language Models Through News
Summarization [97.04685401448499]
本稿では,要約タスクに着目したFIB(Factual Inconsistency Benchmark)と呼ばれる新しいベンチマークを提案する。
現実的に一貫した要約では、手作業で事実的に一貫したものとして検証する、人書きの参照要約を使用します。
現実的に矛盾しない要約に対して、我々は、事実的に矛盾しているとして手動で注釈付けした一連の要約モデルから要約を生成する。
論文 参考訳(メタデータ) (2022-11-15T18:50:34Z) - Falsesum: Generating Document-level NLI Examples for Recognizing Factual
Inconsistency in Summarization [63.21819285337555]
高品質なタスク指向の例でトレーニングデータを拡張した場合,NLIモデルがこのタスクに有効であることを示す。
我々は、制御可能なテキスト生成モデルを利用して、人間の注釈付き要約を摂動させるデータ生成パイプラインであるFalsesumを紹介した。
本研究では,Falsesumを付加したNLIデータセットでトレーニングしたモデルにより,4つのベンチマークを用いて,要約における事実整合性を検出することにより,最先端のパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2022-05-12T10:43:42Z) - Masked Summarization to Generate Factually Inconsistent Summaries for
Improved Factual Consistency Checking [28.66287193703365]
本稿では,キー情報を隠蔽したソーステキストと参照要約を用いて,現実的に一貫性のない要約を生成することを提案する。
7つのベンチマークデータセットを用いた実験により,提案手法を用いて生成した要約に基づいて訓練された実例整合性分類器が既存モデルを上回っていることが示された。
論文 参考訳(メタデータ) (2022-05-04T12:48:49Z) - Stretching Sentence-pair NLI Models to Reason over Long Documents and
Clusters [35.103851212995046]
自然言語推論(NLI)は,文ペア間の意味的関係を推定するフレームワークとして,NLPコミュニティによって広く研究されている。
我々は、NLIモデルの実アプリケーションへの直接ゼロショット適用性について、訓練された文ペア設定を超えて検討する。
本研究では,ContractNLIデータセット上で,フルドキュメント上で動作し,最先端のパフォーマンスを実現するための新たなアグリゲーション手法を開発した。
論文 参考訳(メタデータ) (2022-04-15T12:56:39Z) - MatchVIE: Exploiting Match Relevancy between Entities for Visual
Information Extraction [48.55908127994688]
我々は、VIE(MatchVIE)のためのグラフニューラルネットワークに基づく新しいキー値マッチングモデルを提案する。
関連性評価に基づくキー値マッチングにより、提案したMatchVIEは、認識を様々な意味論にバイパスすることができる。
我々は、エンコードされた値の不安定性に対処するために、単純だが効果的な操作であるNum2Vecを導入する。
論文 参考訳(メタデータ) (2021-06-24T12:06:29Z) - DocNLI: A Large-scale Dataset for Document-level Natural Language
Inference [55.868482696821815]
自然言語推論(NLI)は、様々なNLP問題を解決するための統一的なフレームワークとして定式化されている。
ドキュメントレベルのNLI用に新たに構築された大規模データセットであるDocNLIを紹介する。
論文 参考訳(メタデータ) (2021-06-17T13:02:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。