論文の概要: Self-Adaptive Paraphrasing and Preference Learning for Improved Claim Verifiability
- arxiv url: http://arxiv.org/abs/2412.11653v1
- Date: Mon, 16 Dec 2024 10:54:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:58:34.700910
- Title: Self-Adaptive Paraphrasing and Preference Learning for Improved Claim Verifiability
- Title(参考訳): クレーム検証性向上のための自己適応的パラフレージングと選好学習
- Authors: Amelie Wührl, Roman Klinger,
- Abstract要約: 事実チェックにおいて、クレームの構造と言い換えは、モデルの判断を正確に予測する能力に重大な影響を及ぼす。
ラベル付きトレーニングデータに依存しないクレームを抽出する自己適応型手法を提案する。
本稿では,従来のソーシャルメディアの定式化よりも検証可能なクレームパラフレーズを抽出した。
- 参考スコア(独自算出の注目度): 9.088303226909277
- License:
- Abstract: In fact-checking, structure and phrasing of claims critically influence a model's ability to predict verdicts accurately. Social media content in particular rarely serves as optimal input for verification systems, which necessitates pre-processing to extract the claim from noisy context before fact checking. Prior work suggests extracting a claim representation that humans find to be checkworthy and verifiable. This has two limitations: (1) the format may not be optimal for a fact-checking model, and (2), it requires annotated data to learn the extraction task from. We address both issues and propose a method to extract claims that is not reliant on labeled training data. Instead, our self-adaptive approach only requires a black-box fact checking model and a generative language model (LM). Given a tweet, we iteratively optimize the LM to generate a claim paraphrase that increases the performance of a fact checking model. By learning from preference pairs, we align the LM to the fact checker using direct preference optimization. We show that this novel setup extracts a claim paraphrase that is more verifiable than their original social media formulations, and is on par with competitive baselines. For refuted claims, our method consistently outperforms all baselines.
- Abstract(参考訳): 事実チェックにおいて、クレームの構造と表現は、モデルの判断を正確に予測する能力に重大な影響を及ぼす。
特にソーシャルメディアコンテンツは、事実チェックの前にノイズの多いコンテキストからクレームを抽出するために事前処理を必要とする検証システムにとって最適な入力として機能することは滅多にない。
以前の研究は、人間が正当で検証可能であるという主張を抽出することを示唆している。
1)フォーマットがファクトチェックモデルに最適でない場合と、(2)抽出タスクを学習するために注釈付きデータが必要である場合の2つの制限がある。
両問題に対処し,ラベル付きトレーニングデータに依存しないクレームを抽出する手法を提案する。
代わりに、我々の自己適応的アプローチは、ブラックボックスのファクトチェックモデルとジェネレーティブ言語モデル(LM)のみを必要とする。
ツイートが与えられた場合、私たちはLMを反復的に最適化し、ファクトチェックモデルの性能を高めるクレームパラフレーズを生成します。
選好ペアから学習することにより、直接選好最適化を用いて、LMをファクトチェッカーに整列する。
提案手法は,従来のソーシャルメディアの定式化よりも信頼性が高く,競争基準と同等のクレームパラフレーズを抽出することを示す。
反論された主張に対して、我々の手法は全ての基準線を一貫して上回る。
関連論文リスト
- Self-calibration for Language Model Quantization and Pruning [38.00221764773372]
量子化とプルーニングはモデル圧縮の基本的なアプローチである。
トレーニング後の環境では、最先端の量子化とプルーニングの方法はキャリブレーションデータを必要とする。
自己校正を解決策として提案する。
論文 参考訳(メタデータ) (2024-10-22T16:50:00Z) - Fact Checking Beyond Training Set [64.88575826304024]
本稿では,レトリバーリーダが,あるドメインのラベル付きデータに基づいてトレーニングし,別のドメインで使用する場合,性能劣化に悩まされることを示す。
本稿では,レトリバー成分を分散シフトに対して頑健にするための逆アルゴリズムを提案する。
次に、これらのデータセットから8つの事実チェックシナリオを構築し、モデルと強力なベースラインモデルのセットを比較します。
論文 参考訳(メタデータ) (2024-03-27T15:15:14Z) - Strengthening Multimodal Large Language Model with Bootstrapped Preference Optimization [25.290462963681257]
MLLM(Multimodal Large Language Models)は、視覚的な入力に基づいて応答を生成する。
彼らはしばしば、事前学習したコーパスと同様の反応を生み出すバイアスに悩まされ、視覚情報の重要性を誇示する。
我々は、このバイアスを事前学習統計のための"推奨"として扱い、視覚入力におけるモデルの基盤を妨げます。
論文 参考訳(メタデータ) (2024-03-13T17:29:45Z) - GLoRe: When, Where, and How to Improve LLM Reasoning via Global and Local Refinements [18.939302106382094]
最先端の言語モデルは、数学、科学、あるいはコーディングタスクに関する驚くべき推論の洗練能力を示すことができる。
しかし、最高のモデルでさえ、外部からのフィードバックを使わずに、Textitwhenと洗練すべき場所を特定するのに苦労している。
我々は、最適ポリシーの今後の報奨を近似するために、合成データのみに基づいて訓練されたステップワイズORMを提案する。
論文 参考訳(メタデータ) (2024-02-13T20:16:29Z) - Plausible Extractive Rationalization through Semi-Supervised Entailment Signal [29.67884478799914]
抽出された有理量の妥当性を最適化するために,半教師付きアプローチを採用する。
我々は、事前学習された自然言語推論(NLI)モデルを採用し、さらに教師付き論理の小さなセットに微調整する。
質問応答タスクにおける説明と回答のアライメント合意を強制することにより、真理ラベルにアクセスせずに性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-02-13T14:12:32Z) - Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale [53.152460508207184]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-02T05:53:22Z) - Fine-tuning Language Models for Factuality [96.5203774943198]
大規模な事前訓練型言語モデル(LLM)は、しばしば伝統的な検索エンジンの代替として、広く使われるようになった。
しかし、言語モデルは説得力のあるが事実的に不正確な主張をしがちである(しばしば「幻覚」と呼ばれる)。
本研究では,人間のラベル付けなしに,より現実的な言語モデルを微調整する。
論文 参考訳(メタデータ) (2023-11-14T18:59:15Z) - Unsupervised Pretraining for Fact Verification by Language Model
Distillation [4.504050940874427]
SFAVEL (Self-supervised Fact Verification via Language Model Distillation) は,教師なし事前学習フレームワークである。
アノテーションを必要とせずに、自己管理機能を高品質なクレーム-ファクトアライメントに分解する。
これは、特徴が高品質なクレームとエビデンスアライメントを達成することを奨励する、新しい対照的な損失関数によって実現されている。
論文 参考訳(メタデータ) (2023-09-28T15:53:44Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z) - Generating Fact Checking Explanations [52.879658637466605]
まだ欠けているパズルの重要なピースは、プロセスの最も精巧な部分を自動化する方法を理解することです。
本稿では、これらの説明を利用可能なクレームコンテキストに基づいて自動生成する方法について、最初の研究を行う。
この結果から,個別に学習するのではなく,両目標を同時に最適化することで,事実確認システムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T05:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。