論文の概要: What do people want to fact-check?
- arxiv url: http://arxiv.org/abs/2602.10935v1
- Date: Wed, 11 Feb 2026 15:14:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:02.037537
- Title: What do people want to fact-check?
- Title(参考訳): ファクトチェックとは何か?
- Authors: Bijean Ghafouri, Dorsaf Sallami, Luca Luceri, Taylor Lynn Curtis, Jean-Francois Godbout, Emilio Ferrara, Reihaneh Rabbany,
- Abstract要約: 事実を確認したいものがあれば、実際に何について尋ねられるのか、私たちは示しています。
オープンなAIファクトチェックシステムに、457人の参加者が提出したステートメントを分析します。
まず、ユーザーは幅広いトピックにまたがるが、デフォルトでは狭いエピステマティックなレパートリーになり、現在のオブザーバブルに関する単純な記述的クレームを圧倒的に提出する。
第2に、およそ4人に1人が、道徳的判断、投機的予測、主観的評価など、経験的に解決できない声明に関する。
第3に、FEVERベンチマークデータセットとの比較では、すべての5次元にわたる鋭い構造分岐が露呈し、標準評価コーパスが合成クレーム環境を符号化していることを示す。
- 参考スコア(独自算出の注目度): 10.451649710564775
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Research on misinformation has focused almost exclusively on supply, asking what falsehoods circulate, who produces them, and whether corrections work. A basic demand-side question remains unanswered. When ordinary people can fact-check anything they want, what do they actually ask about? We provide the first large-scale evidence on this question by analyzing close to 2{,}500 statements submitted by 457 participants to an open-ended AI fact-checking system. Each claim is classified along five semantic dimensions (domain, epistemic form, verifiability, target entity, and temporal reference), producing a behavioral map of public verification demand. Three findings stand out. First, users range widely across topics but default to a narrow epistemic repertoire, overwhelmingly submitting simple descriptive claims about present-day observables. Second, roughly one in four requests concerns statements that cannot be empirically resolved, including moral judgments, speculative predictions, and subjective evaluations, revealing a systematic mismatch between what users seek from fact-checking tools and what such tools can deliver. Third, comparison with the FEVER benchmark dataset exposes sharp structural divergences across all five dimensions, indicating that standard evaluation corpora encode a synthetic claim environment that does not resemble real-world verification needs. These results reframe fact-checking as a demand-driven problem and identify where current AI systems and benchmarks are misaligned with the uncertainty people actually experience.
- Abstract(参考訳): 偽情報の研究は、主に供給に焦点を合わせ、どのような偽りが循環し、誰が生成し、修正が機能するかを尋ねている。
基本的な需要側の質問は未回答である。
一般人が自分の望むものをファクトチェックできる時、実際に何について尋ねられるのか?
我々は、457人の参加者が提出した2{,}500の文を、オープンなAIファクトチェックシステムに送信することで、この問題に関する最初の大規模な証拠を提供する。
各クレームは5つのセマンティックディメンション(ドメイン、エピステマティックフォーム、検証可能性、ターゲットエンティティ、時間参照)に沿って分類され、公開検証要求の行動マップを生成する。
3つの発見がある。
まず、ユーザーは幅広いトピックにまたがるが、デフォルトでは狭いエピステマティックなレパートリーになり、現在のオブザーバブルに関する単純な記述的クレームを圧倒的に提出する。
第二に、およそ4人に1人が、道徳的判断、投機的予測、主観的評価など、実証的に解決できない声明を扱い、ユーザーがファクトチェックツールから求めるものと、そのようなツールが提供できるものとの間に、体系的なミスマッチを明らかにする。
第3に、FEVERベンチマークデータセットと比較すると、5次元すべてにわたる鋭い構造的差異が明らかになり、標準的な評価コーパスが現実世界の検証ニーズに似ていない合成クレーム環境をエンコードしていることを示している。
これらの結果は、ファクトチェックを需要駆動の問題として再定義し、現在のAIシステムとベンチマークが実際に経験している不確実性とどのように一致しているかを特定します。
関連論文リスト
- Machine Bullshit: Characterizing the Emergent Disregard for Truth in Large Language Models [57.834711966432685]
哲学者ハリー・フランクフルト(Harry Frankfurt)によって概念化されたブルシット(Bullshit)は、その真理の価値を問わない言明を指す。
本稿では,大言語モデルの真偽に対する無関心を定量化する新しい指標であるブルシット指数を紹介する。
我々は、政治的文脈で一般的な機械いじめを観察し、軽快な言葉が支配的な戦略である。
論文 参考訳(メタデータ) (2025-07-10T07:11:57Z) - From Chaos to Clarity: Claim Normalization to Empower Fact-Checking [57.024192702939736]
Claim Normalization(別名 ClaimNorm)は、複雑でノイズの多いソーシャルメディア投稿を、より単純で分かりやすい形式に分解することを目的としている。
本稿では,チェーン・オブ・ソートとクレーム・チェック・バシネス推定を利用した先駆的アプローチであるCACNを提案する。
実験により, CACNは様々な評価尺度において, いくつかの基準値を上回る性能を示した。
論文 参考訳(メタデータ) (2023-10-22T16:07:06Z) - FACTIFY-5WQA: 5W Aspect-based Fact Verification through Question
Answering [3.0401523614135333]
人間のファクトチェッカーは一般的に、検証の至上性のクレームを検証するためのいくつかの論理的なステップに従う。
アスペクトベースの(どの部分(s)が真で、どれが偽であるかを記述)説明可能なシステムを持つことが必要である。
本稿では,質問応答に基づく事実説明可能性のための5Wフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-07T16:52:21Z) - Generating Literal and Implied Subquestions to Fact-check Complex Claims [64.81832149826035]
我々は、複雑なクレームを、そのクレームの正確性に影響を及ぼす「イエス・ノー・サブクエスト」の包括的集合に分解することに集中する。
我々は1000以上のクレームに対する分解のデータセットである ClaimDecomp を提示する。
これらのサブクエストは、関連する証拠を特定し、すべてのクレームを事実確認し、回答を通じて正確性を引き出すのに役立ちます。
論文 参考訳(メタデータ) (2022-05-14T00:40:57Z) - FaVIQ: FAct Verification from Information-seeking Questions [77.7067957445298]
実ユーザによる情報探索質問を用いて,ファVIQと呼ばれる大規模事実検証データセットを構築した。
我々の主張は自然であると証明され、語彙バイアスがほとんどなく、検証の証拠を完全に理解する必要がある。
論文 参考訳(メタデータ) (2021-07-05T17:31:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。