論文の概要: Do All Good Actors Look The Same? Exploring News Veracity Detection
Across The U.S. and The U.K
- arxiv url: http://arxiv.org/abs/2006.01211v1
- Date: Tue, 26 May 2020 22:45:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 23:22:01.261204
- Title: Do All Good Actors Look The Same? Exploring News Veracity Detection
Across The U.S. and The U.K
- Title(参考訳): 良い俳優はみんな同じように見えるか?
米国と英国でニュースの正確性検出を調査中
- Authors: Benjamin D. Horne and Maur\'icio Gruppi and Sibel Adal{\i}
- Abstract要約: われわれは、米国と英国からのニュースデータにまたがって、ニュースの妥当性モデルを明示的にテストしている。
本研究では、ある国のニュースデータをトレーニングして、別の国でテストした場合、テキストベースの分類器の性能が低いことを示す。
- 参考スコア(独自算出の注目度): 4.163860911052052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A major concern with text-based news veracity detection methods is that they
may not generalize across countries and cultures. In this short paper, we
explicitly test news veracity models across news data from the United States
and the United Kingdom, demonstrating there is reason for concern of
generalizabilty. Through a series of testing scenarios, we show that text-based
classifiers perform poorly when trained on one country's news data and tested
on another. Furthermore, these same models have trouble classifying unseen,
unreliable news sources. In conclusion, we discuss implications of these
results and avenues for future work.
- Abstract(参考訳): テキストベースのニュースveracity検出方法に対する大きな懸念は、国や文化にまたがって一般化できないことである。
本稿では,米国とイギリスのニュースデータ間でニュースの妥当性モデルを明示的に検証し,一般性に関する懸念があることを実証する。
一連のテストシナリオを通じて、ある国のニュースデータでトレーニングし、別の国でテストすると、テキストベースの分類器の性能が低下することを示す。
さらに、これらのモデルでは、見当たらない信頼できないニュースソースの分類に問題がある。
結論として,これらの結果と今後の課題への道筋について考察する。
関連論文リスト
- Adapting Fake News Detection to the Era of Large Language Models [48.5847914481222]
我々は,機械による(言い換えられた)リアルニュース,機械生成のフェイクニュース,人書きのフェイクニュース,人書きのリアルニュースの相互作用について検討する。
我々の実験では、人書き記事のみに特化して訓練された検知器が、機械が生成したフェイクニュースを検出できる興味深いパターンを明らかにしましたが、その逆ではありません。
論文 参考訳(メタデータ) (2023-11-02T08:39:45Z) - Fake News Detection and Behavioral Analysis: Case of COVID-19 [0.22940141855172028]
パンデミックに関する偽ニュースの拡散による「情報デミック」が世界的な問題となっている。
読者は偽ニュースを本当のニュースと間違える可能性があり、その結果、本物の情報にアクセスできなくなる。
ソーシャルメディアの投稿で偽のニュースデータを正確に識別することは困難である。
論文 参考訳(メタデータ) (2023-05-25T13:42:08Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - Multiverse: Multilingual Evidence for Fake News Detection [71.51905606492376]
Multiverseは、偽ニュースの検出に使用できる多言語エビデンスに基づく新機能である。
偽ニュース検出機能としての言語間証拠の使用仮説を確認した。
論文 参考訳(メタデータ) (2022-11-25T18:24:17Z) - Arabic Fake News Detection Based on Deep Contextualized Embedding Models [3.425727850372357]
英語で偽ニュースを検出するために多くの研究がなされているが、アラビア語で偽ニュースを検出する研究は少ない。
我々は、大きくて多様なアラビアの偽ニュースデータセットを構築した。
我々は8つの最先端のアラビア語組込みモデルを利用して、偽ニュースを識別するトランスフォーマーベースの分類器を開発し、評価した。
我々は、現在最先端のアラビア語の文脈化埋め込みモデルと、同様の偽ニュース検出システムの比較を徹底的に分析する。
論文 参考訳(メタデータ) (2022-05-06T09:54:35Z) - Generalizing to the Future: Mitigating Entity Bias in Fake News
Detection [30.493485490419403]
本稿では,偽ニュース検出モデルを将来のデータに一般化するエンティティ・デバイアス・フレームワーク(textbfENDEF)を提案する。
エンティティ,ニュースコンテンツ,ニュースの妥当性の因果グラフに基づいて,各原因の寄与を別々にモデル化する。
推論段階では、エンティティの直接効果を取り除き、エンティティバイアスを軽減する。
論文 参考訳(メタデータ) (2022-04-20T14:32:34Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - User Preference-aware Fake News Detection [61.86175081368782]
既存の偽ニュース検出アルゴリズムは、詐欺信号のニュースコンテンツをマイニングすることに焦点を当てている。
本稿では,共同コンテンツとグラフモデリングにより,ユーザの好みから様々な信号を同時にキャプチャする新しいフレームワークUPFDを提案する。
論文 参考訳(メタデータ) (2021-04-25T21:19:24Z) - A Survey on Predicting the Factuality and the Bias of News Media [29.032850263311342]
「事実と偏見のためのメディアプロファイリングの現状」
「西洋政治の背景にある政治的偏見検出は、左中右偏見の予測である」
「異なる情報源とモダリティの使用の最近の進歩」
論文 参考訳(メタデータ) (2021-03-16T11:11:54Z) - Viable Threat on News Reading: Generating Biased News Using Natural
Language Models [49.90665530780664]
公開されている言語モデルは、入力されたオリジナルニュースに基づいてバイアスのあるニュースコンテンツを確実に生成できることを示す。
また、制御可能なテキスト生成を用いて、多数の高品質な偏りのあるニュース記事を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-05T16:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。