論文の概要: From Chaos to Clarity: Claim Normalization to Empower Fact-Checking
- arxiv url: http://arxiv.org/abs/2310.14338v1
- Date: Sun, 22 Oct 2023 16:07:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 00:33:01.486199
- Title: From Chaos to Clarity: Claim Normalization to Empower Fact-Checking
- Title(参考訳): ChaosからClarityへ: クレーム正規化からFact-Checkingの強化
- Authors: Megha Sundriyal, Tanmoy Chakraborty, Preslav Nakov
- Abstract要約: Claim Normalization(または ClaimNorm)は、複雑で騒がしいソーシャルメディア投稿を、より単純で理解しやすい形式に分解することを目的としている。
我々は,人間の推論過程を模倣し,チェーン・オブ・シントとクレーム・チェック・バシネス推定を活用する先駆的アプローチであるCACNを提案し,複雑なクレームを理解する。
我々は、ソーシャルメディア投稿の6万件以上のインスタンスと、それぞれの正規化されたクレームを含む、包括的な実世界のデータセットであるCLANを慎重にコンパイルする。
- 参考スコア(独自算出の注目度): 57.024192702939736
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: With the proliferation of social media platforms, users are exposed to vast
information, including posts containing misleading claims. However, the
pervasive noise inherent in these posts presents a challenge in identifying
precise and prominent claims that require verification. Extracting the core
assertions from such posts is arduous and time-consuming. We introduce a novel
task called Claim Normalization (aka ClaimNorm) that aims to decompose complex
and noisy social media posts into more straightforward and understandable
forms, termed normalized claims. We propose CACN, a pioneering approach that
leverages chain-of-thought and claim check-worthiness estimation, mimicking
human reasoning processes, to comprehend intricate claims. Moreover, we
capitalize on large language models' powerful in-context learning abilities to
provide guidance and improve the claim normalization process. To evaluate the
effectiveness of our proposed model, we meticulously compile a comprehensive
real-world dataset, CLAN, comprising more than 6k instances of social media
posts alongside their respective normalized claims. Experimentation
demonstrates that CACN outperforms several baselines across various evaluation
measures. A rigorous error analysis validates CACN's capabilities and pitfalls.
- Abstract(参考訳): ソーシャルメディアプラットフォームの普及に伴い、ユーザーは誤解を招くクレームを含む記事を含む膨大な情報にさらされる。
しかし、これらの投稿に内在する広汎なノイズは、検証を必要とする正確かつ顕著な主張を特定する上での課題となっている。
このようなポストからコアアサーションを抽出するのは困難で時間を要する。
我々は,複雑で騒々しいソーシャルメディア投稿を,より単純で理解しやすい形式に分解することを目的とした,Craim Normalization(別名ClaumNorm)という新しいタスクを導入する。
我々は,人間の推論過程を模倣し,思考の連鎖とクレームのチェック価値を推定し,複雑なクレームを理解するための先駆的手法であるcacnを提案する。
さらに,大規模言語モデルの強力なインコンテキスト学習能力を活用して,クレーム正規化プロセスの指導と改善を行う。
提案モデルの有効性を評価するために,ソーシャルメディア投稿の6kインスタンスをそれぞれ正規化したクレームと合わせて,包括的実世界のデータセットである clan を丁寧にコンパイルする。
実験により、CACNは様々な評価尺度でいくつかの基準線を上回っていることが示された。
厳密なエラー解析は、CACNの能力と落とし穴を検証する。
関連論文リスト
- AFaCTA: Assisting the Annotation of Factual Claim Detection with
Reliable LLM Annotators [40.81978676612458]
AFaCTAは、事実主張のアノテーションを支援する新しいフレームワークである。
AFaCTAは、3つの事前定義された推論経路に沿って、アノテーションの信頼度を一貫性で調整する。
PoliClaimは、さまざまな政治的トピックにまたがる包括的なクレーム検出データセットである。
論文 参考訳(メタデータ) (2024-02-16T20:59:57Z) - Explainable Fraud Detection with Deep Symbolic Classification [4.1205832766381985]
分類問題に対するDeep Symbolic Regressionフレームワークの拡張であるDeep Classificationを提案する。
関数は閉形式で簡潔な数学的表現であるため、モデルは1つの分類決定のレベルとモデルの決定過程の両方において本質的に説明可能である。
PaySimデータセットの評価は、最先端のモデルと競合する予測性能を示しながら、説明可能性の観点からそれらを上回っている。
論文 参考訳(メタデータ) (2023-12-01T13:50:55Z) - Concise and Organized Perception Facilitates Large Language Models for
Deductive Reasoning [36.590274024394326]
コンシス・アンド・オーガナイズド・パーセプション(COP)という新しい推論手法を提案する。
COPは与えられたステートメントを慎重に分析し、冗長性を排除しつつ、最も関連する情報を効率的に識別する。
その後、モデルの推論プロセスに適応するより組織化された形式でLLMを誘導する。
論文 参考訳(メタデータ) (2023-10-05T04:47:49Z) - CAR: Conceptualization-Augmented Reasoner for Zero-Shot Commonsense
Question Answering [56.592385613002584]
ゼロショットコモンセンス質問応答の課題に対処するために,概念化強化推論器(CAR)を提案する。
CARは、CommonSenseの知識を多くの高レベルなインスタンスに抽象化し、CommonSenseの知識ベースの範囲を拡大する。
CARは、既存のメソッドよりも、ゼロショットのコモンセンスシナリオに関する質問に答えることにより、より堅牢に一般化する。
論文 参考訳(メタデータ) (2023-05-24T08:21:31Z) - WiCE: Real-World Entailment for Claims in Wikipedia [63.234352061821625]
We propose WiCE, a new fine-fine textual entailment dataset built on natural claim and evidence pairs from Wikipedia。
標準クレームレベルのエンターメントに加えて、WiCEはクレームのサブ文単位に対するエンターメント判断を提供する。
我々のデータセットの真のクレームは、既存のモデルで対処できない検証と検索の問題に挑戦することを含んでいる。
論文 参考訳(メタデータ) (2023-03-02T17:45:32Z) - ExClaim: Explainable Neural Claim Verification Using Rationalization [8.369720566612111]
ExClaimは、基礎的な証拠を含む説明可能なクレーム検証システムを提供しようとしている。
法体系にインスパイアされたExClaimは、合理化を活用して、請求に対する評決を提供する。
統計的および説明可能なAI(XAI)の評価は、有効で信頼性の高い結果を保証するために行われる。
論文 参考訳(メタデータ) (2023-01-21T08:26:27Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z) - Generating Literal and Implied Subquestions to Fact-check Complex Claims [64.81832149826035]
我々は、複雑なクレームを、そのクレームの正確性に影響を及ぼす「イエス・ノー・サブクエスト」の包括的集合に分解することに集中する。
我々は1000以上のクレームに対する分解のデータセットである ClaimDecomp を提示する。
これらのサブクエストは、関連する証拠を特定し、すべてのクレームを事実確認し、回答を通じて正確性を引き出すのに役立ちます。
論文 参考訳(メタデータ) (2022-05-14T00:40:57Z) - Generating Fact Checking Explanations [52.879658637466605]
まだ欠けているパズルの重要なピースは、プロセスの最も精巧な部分を自動化する方法を理解することです。
本稿では、これらの説明を利用可能なクレームコンテキストに基づいて自動生成する方法について、最初の研究を行う。
この結果から,個別に学習するのではなく,両目標を同時に最適化することで,事実確認システムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T05:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。