論文の概要: Automatic Fake News Detection: Are current models "fact-checking" or
"gut-checking"?
- arxiv url: http://arxiv.org/abs/2204.07229v1
- Date: Thu, 14 Apr 2022 21:05:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-04-18 15:28:32.654743
- Title: Automatic Fake News Detection: Are current models "fact-checking" or
"gut-checking"?
- Title(参考訳): フェイクニュースの自動検出: 現在のモデルは"ファクトチェック"か"ガットチェック"か?
- Authors: Ian Kelk, Benjamin Basseri, Wee Yi Lee, Richard Qiu, Chris Tanner
- Abstract要約: 自動フェイクニュース検出モデルは論理に基づいている。
これらの同じ結果、あるいはそれ以上の結果が、主張を全く考慮せずに達成できることが示されている。
これは、他の信号が検査された証拠に含まれることを意味する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic fake news detection models are ostensibly based on logic, where the
truth of a claim made in a headline can be determined by supporting or refuting
evidence found in a resulting web query. These models are believed to be
reasoning in some way; however, it has been shown that these same results, or
better, can be achieved without considering the claim at all -- only the
evidence. This implies that other signals are contained within the examined
evidence, and could be based on manipulable factors such as emotion, sentiment,
or part-of-speech (POS) frequencies, which are vulnerable to adversarial
inputs. We neutralize some of these signals through multiple forms of both
neural and non-neural pre-processing and style transfer, and find that this
flattening of extraneous indicators can induce the models to actually require
both claims and evidence to perform well. We conclude with the construction of
a model using emotion vectors built off a lexicon and passed through an
"emotional attention" mechanism to appropriately weight certain emotions. We
provide quantifiable results that prove our hypothesis that manipulable
features are being used for fact-checking.
- Abstract(参考訳): 自動フェイクニュース検出モデルは、表向きはロジックに基づいており、その結果のwebクエリで見つかった証拠を支持したり、反論したりすることで、見出しに書かれたクレームの真相を判断できる。
これらのモデルは何らかの方法で推論されていると考えられているが、証拠だけを考慮せずに、同じ結果、あるいはより良い結果が達成できることが示されている。
このことは、他の信号が検査された証拠の中に含まれており、敵の入力に弱い感情、感情、POS(part-of-speech)周波数などの操作可能な要因に基づいている可能性があることを意味する。
我々は、これらの信号のいくつかを、神経および非神経前処理とスタイル転送の両方の形で中和し、この不均質な指標のフラット化によってモデルが実際にクレームとエビデンスの両方をうまく機能させる必要があることを見出します。
我々は、語彙から構築された感情ベクトルを用いたモデルを構築し、特定の感情を適切に重み付けする「感情的注意」メカニズムを通した。
事実確認にマニピュラブルな特徴が使われているという仮説を証明する定量的な結果を提供する。
関連論文リスト
- Read it Twice: Towards Faithfully Interpretable Fact Verification by
Revisiting Evidence [59.81749318292707]
本稿では,証拠の検索とクレームの検証を行うためにReReadという名前の事実検証モデルを提案する。
提案システムは,異なる設定下での最良のレポートモデルに対して,大幅な改善を実現することができる。
論文 参考訳(メタデータ) (2023-05-02T03:23:14Z) - Fact-Saboteurs: A Taxonomy of Evidence Manipulation Attacks against
Fact-Verification Systems [80.3811072650087]
証拠のクレームサレントスニペットを微調整し,多様かつクレームアラインな証拠を生成することが可能であることを示す。
この攻撃は、主張のポストホックな修正に対しても堅牢である。
これらの攻撃は、インスペクタブルとヒューマン・イン・ザ・ループの使用シナリオに有害な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-09-07T13:39:24Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Synthetic Disinformation Attacks on Automated Fact Verification Systems [53.011635547834025]
本研究では,2つのシミュレーション環境において,自動ファクトチェッカーの合成正反対証拠に対する感度について検討する。
これらのシステムでは,これらの攻撃に対して大幅な性能低下がみられた。
偽情報の発生源としての現代のNLGシステムの脅威の増大について論じる。
論文 参考訳(メタデータ) (2022-02-18T19:01:01Z) - Mining Fine-grained Semantics via Graph Neural Networks for
Evidence-based Fake News Detection [20.282527436527765]
本稿では,グラフベースのsEmantic sTructureマイニングフレームワークを提案する。
我々は、クレームとエビデンスをグラフ構造化データとしてモデル化し、長距離セマンティック依存関係をキャプチャします。
文脈意味情報を得た後、グラフ構造学習を行うことにより、情報冗長性を低減する。
論文 参考訳(メタデータ) (2022-01-18T11:28:36Z) - Is My Model Using The Right Evidence? Systematic Probes for Examining
Evidence-Based Tabular Reasoning [26.168211982441875]
ニューラルモデルは、推論を含むNLPタスク全体での最先端のパフォーマンスを定期的に報告する。
実験の結果, BERTをベースとした現在の最先端モデルでは, 以下の数値を適切に判断できないことがわかった。
論文 参考訳(メタデータ) (2021-08-02T01:14:19Z) - Automatic Fake News Detection: Are Models Learning to Reason? [9.143551270841858]
クレームと証拠の両方の関係と重要性を調査します。
驚くべきことに、政治的事実チェックデータセットでは、最も頻繁に最も有効性が高いことが証拠のみを利用して得られます。
これは、既存のフェイクニュース検出手法における証拠を構成する重要な問題である。
論文 参考訳(メタデータ) (2021-05-17T09:34:03Z) - AmbiFC: Fact-Checking Ambiguous Claims with Evidence [57.7091560922174]
実世界の情報ニーズから10kクレームを抽出したファクトチェックデータセットであるAmbiFCを提示する。
アンビFCの証拠に対する主張を比較する際に,曖昧さから生じる不一致を分析した。
我々は,このあいまいさをソフトラベルで予測するモデルを開発した。
論文 参考訳(メタデータ) (2021-04-01T17:40:08Z) - A Controllable Model of Grounded Response Generation [122.7121624884747]
現在のエンドツーエンドのニューラルネットワークモデルは、応答生成プロセスにセマンティックコントロールを課す柔軟性を本質的に欠いている。
我々は制御可能な接地応答生成(CGRG)と呼ばれるフレームワークを提案する。
このフレームワークを用いることで、会話のようなRedditデータセットでトレーニングされた、新しいインダクティブアテンション機構を備えたトランスフォーマーベースのモデルが、強力な生成ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2020-05-01T21:22:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。