論文の概要: JustiLM: Few-shot Justification Generation for Explainable Fact-Checking
of Real-world Claims
- arxiv url: http://arxiv.org/abs/2401.08026v1
- Date: Tue, 16 Jan 2024 00:47:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 15:39:15.864500
- Title: JustiLM: Few-shot Justification Generation for Explainable Fact-Checking
of Real-world Claims
- Title(参考訳): JustiLM: 実世界のクレームを記述可能なFact-CheckingのためのFew-shot Justification Generation
- Authors: Fengzhu Zeng, Wei Gao
- Abstract要約: 正当化とは,事実確認においてクレームに割り当てられた正確性を支持する説明である。
得られた証拠に基づいて正当化を生成するための現実的なアプローチを提案する。
JustiLMは、強いベースラインに比べて、正当化生成において有望なパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 12.742488131202808
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Justification is an explanation that supports the veracity assigned to a
claim in fact-checking. However, the task of justification generation is
previously oversimplified as summarization of fact-check article authored by
fact-checkers. Therefore, we propose a realistic approach to generate
justification based on retrieved evidence. We present a new benchmark dataset
called ExClaim for \underline{Ex}plainable fact-checking of real-world
\underline{Claim}s, and introduce JustiLM, a novel few-shot
\underline{Justi}fication generation based on retrieval-augmented
\underline{L}anguage \underline{M}odel by using fact-check articles as
auxiliary resource during training only. Experiments show that JustiLM achieves
promising performance in justification generation compared to strong baselines,
and can also enhance veracity classification with a straightforward extension.
- Abstract(参考訳): 正当化とは,事実確認においてクレームに割り当てられた正確性を支持する説明である。
しかし, 以前はファクトチェッカーによるファクトチェック記事の要約として過度に単純化されていた。
そこで本研究では, 得られた証拠に基づいて正当性を生成する現実的な手法を提案する。
本稿では,実世界の \underline{claim} を記述可能なファクトチェックするための exclaim という新しいベンチマークデータセットを提案し,学習中のみのファクトチェック項目を補助リソースとして使用することにより,検索可能な \underline{l}anguage \underline{m}odel に基づいた,新たなマイナショット \underline{justi}fication 生成法である justilm を紹介する。
実験により、justilmは、強力なベースラインと比較して正当化生成において有望な性能を達成できることが示され、また、簡単な拡張でveracity分類も強化できる。
関連論文リスト
- FactLens: Benchmarking Fine-Grained Fact Verification [6.814173254027381]
我々は、複雑なクレームを個別の検証のためにより小さなサブステートに分割する、きめ細かい検証へのシフトを提唱する。
我々は,ファクトレンス(FactLens)という,ファクトレンス(FactLens)という,詳細な事実検証のベンチマークを紹介した。
この結果から,FactLens自動評価器と人的判断との整合性を示し,評価性能に対する準定値特性の影響について考察した。
論文 参考訳(メタデータ) (2024-11-08T21:26:57Z) - Ground Every Sentence: Improving Retrieval-Augmented LLMs with Interleaved Reference-Claim Generation [51.8188846284153]
RAGは大規模言語モデル(LLM)を強化するために広く採用されている。
分散テキスト生成(ATG)が注目され、RAGにおけるモデルの応答をサポートするための引用を提供する。
本稿では,ReClaim(Refer & Claim)と呼ばれる詳細なATG手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T20:47:47Z) - Evaluating Evidence Attribution in Generated Fact Checking Explanations [48.776087871960584]
生成した説明文の属性品質を評価するために,新しい評価プロトコル,引用マスキングとリカバリを導入する。
実験により、最高の性能を持つLSMは、不正確な属性を持つ説明を生成することが明らかとなった。
より良い説明を生み出すには人為的な証拠が不可欠である。
論文 参考訳(メタデータ) (2024-06-18T14:13:13Z) - Factcheck-Bench: Fine-Grained Evaluation Benchmark for Automatic Fact-checkers [121.53749383203792]
本稿では,大規模言語モデル (LLM) 生成応答の事実性に注釈を付けるための総合的なエンドツーエンドソリューションを提案する。
オープンドメインの文書レベルの事実性ベンチマークを,クレーム,文,文書の3段階の粒度で構築する。
予備実験によると、FacTool、FactScore、Perplexityは虚偽の主張を識別するのに苦労している。
論文 参考訳(メタデータ) (2023-11-15T14:41:57Z) - Unsupervised Pretraining for Fact Verification by Language Model
Distillation [4.504050940874427]
SFAVEL (Self-supervised Fact Verification via Language Model Distillation) は,教師なし事前学習フレームワークである。
アノテーションを必要とせずに、自己管理機能を高品質なクレーム-ファクトアライメントに分解する。
これは、特徴が高品質なクレームとエビデンスアライメントを達成することを奨励する、新しい対照的な損失関数によって実現されている。
論文 参考訳(メタデータ) (2023-09-28T15:53:44Z) - LeanDojo: Theorem Proving with Retrieval-Augmented Language Models [72.54339382005732]
大規模言語モデル(LLM)は、Leanのような証明アシスタントを使って形式的な定理を証明することを約束している。
既存のメソッドは、プライベートコード、データ、計算要求のために、複製や構築が難しい。
本稿では、ツールキット、データ、モデルからなるオープンソースのリーンツールキットであるLeanDojoを紹介します。
本研究では,LLM ベースの証明器 ReProver を開発した。
論文 参考訳(メタデータ) (2023-06-27T17:05:32Z) - WiCE: Real-World Entailment for Claims in Wikipedia [63.234352061821625]
We propose WiCE, a new fine-fine textual entailment dataset built on natural claim and evidence pairs from Wikipedia。
標準クレームレベルのエンターメントに加えて、WiCEはクレームのサブ文単位に対するエンターメント判断を提供する。
我々のデータセットの真のクレームは、既存のモデルで対処できない検証と検索の問題に挑戦することを含んでいる。
論文 参考訳(メタデータ) (2023-03-02T17:45:32Z) - WeCheck: Strong Factual Consistency Checker via Weakly Supervised
Learning [40.5830891229718]
本稿では,複数のリソースを集約して,正確かつ効率的な実測値(WeCheck)をトレーニングする,弱教師付きフレームワークを提案する。
様々なタスクに関する総合的な実験は、平均してTRUEベンチマークにおける従来の最先端手法よりも3.4%の絶対的な改善を実現するWeCheckの強い性能を示す。
論文 参考訳(メタデータ) (2022-12-20T08:04:36Z) - Masked Summarization to Generate Factually Inconsistent Summaries for
Improved Factual Consistency Checking [28.66287193703365]
本稿では,キー情報を隠蔽したソーステキストと参照要約を用いて,現実的に一貫性のない要約を生成することを提案する。
7つのベンチマークデータセットを用いた実験により,提案手法を用いて生成した要約に基づいて訓練された実例整合性分類器が既存モデルを上回っていることが示された。
論文 参考訳(メタデータ) (2022-05-04T12:48:49Z) - Generating Fact Checking Explanations [52.879658637466605]
まだ欠けているパズルの重要なピースは、プロセスの最も精巧な部分を自動化する方法を理解することです。
本稿では、これらの説明を利用可能なクレームコンテキストに基づいて自動生成する方法について、最初の研究を行う。
この結果から,個別に学習するのではなく,両目標を同時に最適化することで,事実確認システムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T05:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。