論文の概要: Annotating and Modeling Fine-grained Factuality in Summarization
- arxiv url: http://arxiv.org/abs/2104.04302v1
- Date: Fri, 9 Apr 2021 11:20:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 14:08:14.895253
- Title: Annotating and Modeling Fine-grained Factuality in Summarization
- Title(参考訳): 要約における微細なファクチュアリティの注釈とモデル化
- Authors: Tanya Goyal and Greg Durrett
- Abstract要約: 実際に使用する上での大きな障壁は、入力に忠実ではなく、事実的誤りを含む要約を出力する確率である。
要約の事実的誤りを識別するために,学習モデルのための合成データと人間ラベルデータの両方を探索する。
我々は,学習データ中の非実写トークンを識別することにより,より実写的なXSum要約モデルのトレーニングを可能にすることを示す。
- 参考スコア(独自算出の注目度): 36.88018450067003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent pre-trained abstractive summarization systems have started to achieve
credible performance, but a major barrier to their use in practice is their
propensity to output summaries that are not faithful to the input and that
contain factual errors. While a number of annotated datasets and statistical
models for assessing factuality have been explored, there is no clear picture
of what errors are most important to target or where current techniques are
succeeding and failing. We explore both synthetic and human-labeled data
sources for training models to identify factual errors in summarization, and
study factuality at the word-, dependency-, and sentence-level. Our
observations are threefold. First, exhibited factual errors differ
significantly across datasets, and commonly-used training sets of simple
synthetic errors do not reflect errors made on abstractive datasets like XSum.
Second, human-labeled data with fine-grained annotations provides a more
effective training signal than sentence-level annotations or synthetic data.
Finally, we show that our best factuality detection model enables training of
more factual XSum summarization models by allowing us to identify non-factual
tokens in the training data.
- Abstract(参考訳): 近年、訓練済みの抽象要約システムは信頼性の高い性能を達成し始めているが、実際に使用する上での大きな障壁は、入力に忠実で事実的誤りを含む要約を出力する確率である。
事実性を評価するための注釈付きデータセットや統計モデルが数多く検討されているが、ターゲットにとって何のエラーが最も重要か、現在のテクニックが成功し、失敗しているかを明確に示していない。
学習モデルのための合成データと人間ラベルデータの両方を調査し,要約の誤りを識別し,単語・係り受け・文レベルでの事実性について検討する。
私たちの観察は3倍です。
一般的に使われている単純な合成エラーのトレーニングセットは、XSumのような抽象データセット上のエラーを反映しない。
第二に、微粒度アノテーション付き人間ラベルデータは、文レベルのアノテーションや合成データよりも効果的なトレーニング信号を提供する。
最後に,我々の最良事実検出モデルにより,トレーニングデータ中の非実物トークンを識別することにより,より実物的なXSum要約モデルのトレーニングが可能になることを示す。
関連論文リスト
- Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of
Open Information Extraction [50.62245481416744]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - Correcting Diverse Factual Errors in Abstractive Summarization via
Post-Editing and Language Model Infilling [56.70682379371534]
提案手法は, 誤要約の修正において, 従来手法よりもはるかに優れていることを示す。
我々のモデルであるFactEditは、CNN/DMで11点、XSumで31点以上のファクトリティスコアを改善する。
論文 参考訳(メタデータ) (2022-10-22T07:16:19Z) - Understanding Factual Errors in Summarization: Errors, Summarizers,
Datasets, Error Detectors [105.12462629663757]
本研究では、既存の9つのデータセットから事実性エラーアノテーションを集約し、基礎となる要約モデルに従ってそれらを階層化する。
本稿では,この階層化ベンチマークにおいて,最近のChatGPTベースの指標を含む最先端の事実性指標の性能を比較し,その性能が様々な種類の要約モデルで大きく異なることを示す。
論文 参考訳(メタデータ) (2022-05-25T15:26:48Z) - Label-Descriptive Patterns and their Application to Characterizing
Classification Errors [31.272875287136426]
最先端のディープラーニング手法は多くのタスクで人間のようなパフォーマンスを達成するが、それでもエラーを犯す。
これらのエラーを容易に解釈可能な言葉で特徴付けることは、モデルが体系的なエラーを起こす傾向にあるかどうかの洞察を与えるだけでなく、モデルを実行し改善する方法を与える。
本稿では,予測の正しさに応じて分割された入力データを簡潔に記述するパターンの小さなセットをマイニングすることにより,任意の分類器に対して,任意の分類を行うことができる手法を提案する。
論文 参考訳(メタデータ) (2021-10-18T19:42:21Z) - CLIFF: Contrastive Learning for Improving Faithfulness and Factuality in
Abstractive Summarization [6.017006996402699]
我々は、与えられた記事に忠実で事実に整合した抽象的な要約を生成することを研究する。
参照要約を正のトレーニングデータとして活用し、誤要約を負のトレーニングデータとして自動生成し、両者を区別し易い要約システムを訓練する、新しいコントラスト学習定式化を提案する。
論文 参考訳(メタデータ) (2021-09-19T20:05:21Z) - On the Transferability of Pre-trained Language Models: A Study from
Artificial Datasets [74.11825654535895]
大規模未ラベルテキストデータ上での事前学習言語モデル(LM)により、ダウンストリームのパフォーマンスが極めて容易になる。
我々は,事前学習データに含まれる特定の特徴について,セマンティクス以外では,下流タスクのスクラッチからトレーニングしたデータよりも,事前学習したLMを優れているか検討した。
論文 参考訳(メタデータ) (2021-09-08T10:39:57Z) - Factual Error Correction for Abstractive Summarization Models [41.77317902748772]
本稿では,生成した要約の事実誤りを訂正するための編集後修正モジュールを提案する。
本モデルでは,他の神経要約モデルによって生成された要約の事実誤りを補正できることが示されている。
また、人工的なエラー訂正から下流の設定への移行は依然として非常に困難であることもわかりました。
論文 参考訳(メタデータ) (2020-10-17T04:24:16Z) - ReClor: A Reading Comprehension Dataset Requiring Logical Reasoning [85.33459673197149]
標準化された大学院受験試験から抽出した論理的推論(ReClor)を必要とする新たな読解データセットを提案する。
本稿では、偏りのあるデータポイントを識別し、それらをEASY集合と残りをHARD集合に分離することを提案する。
実験結果によると、最先端のモデルでは、データセットに含まれるバイアスをEASYセット上で高精度にキャプチャする能力に優れていた。
しかし、彼らはランダムな推測に近い性能のHARDセットに苦慮しており、現在のモデルの論理的推論能力を本質的に向上させるためには、より多くの研究が必要であることを示している。
論文 参考訳(メタデータ) (2020-02-11T11:54:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。