論文の概要: Too Many Claims to Fact-Check: Prioritizing Political Claims Based on
Check-Worthiness
- arxiv url: http://arxiv.org/abs/2004.08166v2
- Date: Sun, 14 Feb 2021 20:33:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 13:16:16.501061
- Title: Too Many Claims to Fact-Check: Prioritizing Political Claims Based on
Check-Worthiness
- Title(参考訳): Fact-Checkの主張が多すぎる - チェックウェアネスに基づく政治的主張の優先順位付け
- Authors: Yavuz Selim Kartal, Busra Guvenen and Mucahid Kutlu
- Abstract要約: 本報告では, チェックの信頼性に基づいて, クレームの優先順位付けを行うモデルを提案する。
BERTモデルにはドメイン固有の議論の的となっているトピックや単語の埋め込みなどが追加されています。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The massive amount of misinformation spreading on the Internet on a daily
basis has enormous negative impacts on societies. Therefore, we need automated
systems helping fact-checkers in the combat against misinformation. In this
paper, we propose a model prioritizing the claims based on their
check-worthiness. We use BERT model with additional features including
domain-specific controversial topics, word embeddings, and others. In our
experiments, we show that our proposed model outperforms all state-of-the-art
models in both test collections of CLEF Check That! Lab in 2018 and 2019. We
also conduct a qualitative analysis to shed light-detecting check-worthy
claims. We suggest requesting rationales behind judgments are needed to
understand subjective nature of the task and problematic labels.
- Abstract(参考訳): インターネット上で日常的に広まる大量の誤報は、社会に大きな悪影響を与えている。
そのため,誤報対策においてファクトチェッカーを支援する自動システムが必要である。
本稿では,そのチェック価値に基づいてクレームを優先順位付けするモデルを提案する。
BERTモデルにはドメイン固有の議論のあるトピックや単語の埋め込みなどが追加されています。
実験では,提案したモデルがCLEF Check That!の両テストコレクションにおいて,すべての最先端モデルより優れていることを示す。
2018年と2019年。
また,光検出可能なチェック値クレームの定量化も行う。
課題と問題ラベルの主観的性質を理解するためには,判断の背景にある合理的な根拠を求めることを提案する。
関連論文リスト
- From Chaos to Clarity: Claim Normalization to Empower Fact-Checking [57.024192702939736]
Claim Normalization(別名 ClaimNorm)は、複雑でノイズの多いソーシャルメディア投稿を、より単純で分かりやすい形式に分解することを目的としている。
本稿では,チェーン・オブ・ソートとクレーム・チェック・バシネス推定を利用した先駆的アプローチであるCACNを提案する。
実験により, CACNは様々な評価尺度において, いくつかの基準値を上回る性能を示した。
論文 参考訳(メタデータ) (2023-10-22T16:07:06Z) - Leveraging Social Discourse to Measure Check-worthiness of Claims for
Fact-checking [36.21314290592325]
CheckItは、手動でアノテートされた大規模なTwitterデータセットで、きめ細かいクレームチェックの安全性を提供する。
私たちは、クレームがチェックに値するかどうかを共同で判断する統一的なアプローチであるCheckMateに対して、データセットをベンチマークします。
論文 参考訳(メタデータ) (2023-09-17T13:42:41Z) - WiCE: Real-World Entailment for Claims in Wikipedia [63.234352061821625]
We propose WiCE, a new fine-fine textual entailment dataset built on natural claim and evidence pairs from Wikipedia。
標準クレームレベルのエンターメントに加えて、WiCEはクレームのサブ文単位に対するエンターメント判断を提供する。
我々のデータセットの真のクレームは、既存のモデルで対処できない検証と検索の問題に挑戦することを含んでいる。
論文 参考訳(メタデータ) (2023-03-02T17:45:32Z) - Check-worthy Claim Detection across Topics for Automated Fact-checking [21.723689314962233]
我々は、新しい、目に見えないトピックのチェック価値のあるクレームを検出するという課題を評価し、定量化する。
AraCWAモデルを提案し,トピック間のチェック値のクレームを検出する際の性能劣化を緩和する。
論文 参考訳(メタデータ) (2022-12-16T14:54:56Z) - Empowering the Fact-checkers! Automatic Identification of Claim Spans on
Twitter [25.944789217337338]
Claim Span Identification (CSI) は、投稿に存在するクレーム価値(ミス)情報スニペットを自動的に識別し、抽出するツールである。
トークンレベルのクレームを7.5k以上のツイートに分散した大規模TwitterコーパスであるCURTを提案する。
我々は、RoBERTaのアダプタベースのバリエーションであるDABERTaでデータセットをベンチマークする。
論文 参考訳(メタデータ) (2022-10-10T14:08:46Z) - Fact-Saboteurs: A Taxonomy of Evidence Manipulation Attacks against
Fact-Verification Systems [80.3811072650087]
証拠のクレームサレントスニペットを微調整し,多様かつクレームアラインな証拠を生成することが可能であることを示す。
この攻撃は、主張のポストホックな修正に対しても堅牢である。
これらの攻撃は、インスペクタブルとヒューマン・イン・ザ・ループの使用シナリオに有害な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-09-07T13:39:24Z) - Synthetic Disinformation Attacks on Automated Fact Verification Systems [53.011635547834025]
本研究では,2つのシミュレーション環境において,自動ファクトチェッカーの合成正反対証拠に対する感度について検討する。
これらのシステムでは,これらの攻撃に対して大幅な性能低下がみられた。
偽情報の発生源としての現代のNLGシステムの脅威の増大について論じる。
論文 参考訳(メタデータ) (2022-02-18T19:01:01Z) - Attacking Open-domain Question Answering by Injecting Misinformation [116.25434773461465]
質問応答モデル(QA)に対する誤報のリスクについて,オープンドメインQAモデルの誤報文書に対する感度について検討した。
実験により、QAモデルは誤情報による少量の証拠汚染に対して脆弱であることが示されている。
質問応答と誤情報検出を統合した誤情報認識型QAシステムの構築の必要性について論じる。
論文 参考訳(メタデータ) (2021-10-15T01:55:18Z) - Leveraging Commonsense Knowledge on Classifying False News and
Determining Checkworthiness of Claims [1.487444917213389]
本稿では,偽ニュース分類とチェック価値のあるクレーム検出のタスクに対して,コモンセンスの知識を活用することを提案する。
マルチタスク学習環境において、BERT言語モデルに共通する質問応答タスクと上記のタスクを微調整する。
実験により,コモンセンス知識が両タスクのパフォーマンスを向上させることを示す。
論文 参考訳(メタデータ) (2021-08-08T20:52:45Z) - FaVIQ: FAct Verification from Information-seeking Questions [77.7067957445298]
実ユーザによる情報探索質問を用いて,ファVIQと呼ばれる大規模事実検証データセットを構築した。
我々の主張は自然であると証明され、語彙バイアスがほとんどなく、検証の証拠を完全に理解する必要がある。
論文 参考訳(メタデータ) (2021-07-05T17:31:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。