論文の概要: Deep Breath: A Machine Learning Browser Extension to Tackle Online
Misinformation
- arxiv url: http://arxiv.org/abs/2301.03301v1
- Date: Mon, 9 Jan 2023 12:43:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 13:31:30.862227
- Title: Deep Breath: A Machine Learning Browser Extension to Tackle Online
Misinformation
- Title(参考訳): Deep Breath: オンライン誤報に対処するための機械学習ブラウザエクステンション
- Authors: Marc Kydd, Lynsay A. Shepherd
- Abstract要約: 本稿では,オンライン上の誤解を招くコンテンツの検出,処理,警告を行う新しいシステムを提案する。
機械学習モデルを既存の3万2000のクリックベイトニュース記事見出しのデータセットでトレーニングすることにより、このモデルは見出しがセンセーショナルであるかどうかを予測する。
既存の設計原則に基づいたユニークなコンテンツ警告通知を構築するWebブラウザエクステンションとインターフェースする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past decade, the media landscape has seen a radical shift. As more
of the public stay informed of current events via online sources, competition
has grown as outlets vie for attention. This competition has prompted some
online outlets to publish sensationalist and alarmist content to grab readers'
attention. Such practices may threaten democracy by distorting the truth and
misleading readers about the nature of events. This paper proposes a novel
system for detecting, processing, and warning users about misleading content
online to combat the threats posed by misinformation. By training a machine
learning model on an existing dataset of 32,000 clickbait news article
headlines, the model predicts how sensationalist a headline is and then
interfaces with a web browser extension which constructs a unique content
warning notification based on existing design principles and incorporates the
models' prediction. This research makes a novel contribution to machine
learning and human-centred security with promising findings for future
research. By warning users when they may be viewing misinformation, it is
possible to prevent spontaneous reactions, helping users to take a deep breath
and approach online media with a clear mind.
- Abstract(参考訳): 過去10年間、メディアの状況は根本的に変化してきた。
オンラインソースで現在の出来事を知らせる人が増えている中、コンペティションは注目の的となっている。
この競争は一部のオンラインメディアが読者の注意を引くためにセンセーショナルなコンテンツやアラーム的なコンテンツを公開するきっかけとなった。
このような行為は、真実を歪め、出来事の性質について読者を誤解させることで民主主義を脅かす可能性がある。
本稿では,オンライン上の誤解を招くコンテンツの検出,処理,警告を行う新しいシステムを提案する。
32,000のクリックベイトニュース記事見出しの既存のデータセットで機械学習モデルをトレーニングすることで、このモデルは見出しがセンセーショナルであるかを予測し、既存の設計原則に基づいてユニークなコンテンツ警告通知を構築し、モデル予測を組み込んだwebブラウザエクステンションとインターフェースする。
この研究は機械学習と人間中心のセキュリティに新たな貢献をし、将来の研究に期待できる結果をもたらす。
誤情報を閲覧しているとユーザーに警告することで、自発的な反応を防止し、ユーザーが深呼吸し、明確な心でオンラインメディアにアプローチできるようにすることができる。
関連論文リスト
- HonestBait: Forward References for Attractive but Faithful Headline
Generation [13.456581900511873]
フォワード参照 (FR) は、クリックベイトによく使われる記述技法である。
自己検証プロセスは、急激な発明を避けるために訓練中に含まれる。
本稿では,疑似ニュースと疑似ニュースのペアを含む斬新なデータセットであるPANCO1について紹介する。
論文 参考訳(メタデータ) (2023-06-26T16:34:37Z) - Multilingual Disinformation Detection for Digital Advertising [0.9684919127633844]
私たちは、偽情報で大衆を操る可能性のあるWebサイトを素早く検出し、リフレッシュする第一歩を踏み出します。
我々は、多言語テキスト埋め込みに基づく機械学習モデルを構築し、まず、ページが興味のあるトピックについて言及しているかどうかを判断し、コンテンツが悪意のあるものである可能性を推定する。
当社のシステムでは,内部チームが積極的に安全でないコンテンツをブラックリスト化することで,広告提供者の評判を保護できる。
論文 参考訳(メタデータ) (2022-07-04T10:29:20Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - A Study of Fake News Reading and Annotating in Social Media Context [1.0499611180329804]
我々は、44名のレイト参加者に、ニュース記事を含む投稿を含むソーシャルメディアフィードをさりげなく読み取らせるという、視線追跡研究を提示した。
第2回では,参加者に対して,これらの記事の真偽を判断するよう求めた。
また、同様のシナリオを用いたフォローアップ定性的な研究についても述べるが、今回は7人の専門家によるフェイクニュースアノテータを用いた。
論文 参考訳(メタデータ) (2021-09-26T08:11:17Z) - Defending Democracy: Using Deep Learning to Identify and Prevent
Misinformation [0.0]
本研究では、公開Twitterデータを用いて、ソーシャルメディア上での誤情報拡散の分類と可視化を行う。
この研究は、偽情報検出のためのスケーラブルなモデルを提供するためのBERTの適合性をさらに示す。
論文 参考訳(メタデータ) (2021-06-03T16:34:54Z) - Misinfo Belief Frames: A Case Study on Covid & Climate News [49.979419711713795]
読者がニュースの信頼性や誤った情報の影響をどのように認識するかを理解するための形式主義を提案する。
23.5kの見出しに66kの推論データセットであるMisinfo Belief Frames (MBF) corpusを紹介する。
大規模言語モデルを用いて誤情報フレームを予測した結果,機械生成推論がニュース見出しに対する読者の信頼に影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2021-04-18T09:50:11Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - BaitWatcher: A lightweight web interface for the detection of
incongruent news headlines [27.29585619643952]
BaitWatcherは軽量なWebインターフェースで、ニュース記事の見出しをクリックする前に、読者が不一致の可能性を推定する。
BaiittWatcherは階層的リカレントエンコーダを使用して、ニュース見出しとその関連するボディテキストの複雑なテキスト表現を効率的に学習する。
論文 参考訳(メタデータ) (2020-03-23T23:43:02Z) - Mining Disinformation and Fake News: Concepts, Methods, and Recent
Advancements [55.33496599723126]
偽ニュースを含む偽ニュースは 爆発的な成長により グローバルな現象になっています
偽情報や偽ニュースを検知する最近の進歩にもかかわらず、その複雑さ、多様性、多様性、事実チェックやアノテーションのコストが原因で、いまだに自明ではない。
論文 参考訳(メタデータ) (2020-01-02T21:01:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。