論文の概要: Machine-Made Media: Monitoring the Mobilization of Machine-Generated
Articles on Misinformation and Mainstream News Websites
- arxiv url: http://arxiv.org/abs/2305.09820v1
- Date: Tue, 16 May 2023 21:51:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 18:21:20.604403
- Title: Machine-Made Media: Monitoring the Mobilization of Machine-Generated
Articles on Misinformation and Mainstream News Websites
- Title(参考訳): マシンメイドメディア:誤情報とメインストリームニュースサイトにおける機械学習記事のモビライゼーションのモニタリング
- Authors: Hans W. A. Hanley, Zakir Durumeric
- Abstract要約: 私たちは、DeBERTaベースの合成ニュース検出器を訓練し、3,074の誤報やメインストリームのニュースサイトから12.91万件以上を分類します。
2022年1月1日から2023年4月1日までの間に、主流サイトでは79.4%、誤情報サイトでは342%の増加が見られた。
- 参考スコア(独自算出の注目度): 4.357949911556638
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing popularity of generative large language models (LLMs)
like ChatGPT, an increasing number of news websites have begun utilizing them
to generate articles. However, not only can these language models produce
factually inaccurate articles on reputable websites but disreputable news sites
can utilize these LLMs to mass produce misinformation. To begin to understand
this phenomenon, we present one of the first large-scale studies of the
prevalence of synthetic articles within online news media. To do this, we train
a DeBERTa-based synthetic news detector and classify over 12.91 million
articles from 3,074 misinformation and mainstream news websites. We find that
between January 1, 2022 and April 1, 2023, the relative number of synthetic
news articles increased by 79.4% on mainstream websites while increasing by
342% on misinformation sites. Analyzing the impact of the release of ChatGPT
using an interrupted-time-series, we show that while its release resulted in a
marked increase in synthetic articles on small sites as well as misinformation
news websites, there was not a corresponding increase on large mainstream news
websites. Finally, using data from the social media platform Reddit, we find
that social media users interacted more with synthetic articles in March 2023
relative to January 2022.
- Abstract(参考訳): chatgptのような生成型大言語モデル(llm)の人気が高まり、ニュースサイトは記事を生成するのにそれらを利用するようになった。
しかし、これらの言語モデルは、信頼できるウェブサイト上で事実的に不正確な記事を生成できるだけでなく、不確かなニュースサイトはこれらのLPMを利用して誤情報を大量生成することができる。
この現象を理解するために、オンラインニュースメディアにおける合成記事の普及に関する最初の大規模研究の1つを提案する。
そのために、DeBERTaベースの合成ニュース検出器を訓練し、3,074件の誤報や主流ニュースサイトから1291万件以上を分類する。
2022年1月1日から2023年4月1日までの間に、主要ウェブサイトでは合成ニュース記事の相対的な数は79.4%増加し、偽情報サイトでは342%増加した。
中断時間番組を用いたChatGPTのリリースの影響を分析した結果,小規模サイトや誤報ニュースサイトにおける合成記事の増加は顕著であったが,大手ニュースサイトではそれに相当する増加は見られなかった。
最後に、ソーシャルメディアプラットフォームRedditのデータを用いて、2022年1月に比べてソーシャルメディアユーザーが合成記事とより交流したことが判明した。
関連論文リスト
- Tracking the Takes and Trajectories of English-Language News Narratives across Trustworthy and Worrisome Websites [4.592124824937116]
我々は、4000以上の事実が信頼できない、混合信頼性があり、事実が信頼できる英語ニュースサイトにおいて、ニュースの物語とその態度を特定し、追跡する。
本研究では, ニュース物語の経路と, 特定のエンティティに対するウェブサイトの姿勢が, ゆがんだプロパガンダネットワークの解明に有効であることを示す。
分散ニュースエコシステムの可視性の向上が,プロパガンダや偽情報の報告や事実確認に役立つことを願っています。
論文 参考訳(メタデータ) (2025-01-15T19:37:44Z) - NewsEdits 2.0: Learning the Intentions Behind Updating News [74.84017890548259]
イベントが進むにつれて、ニュース記事は新しい情報で更新されることが多い。
本研究では,言語的特徴が事実流動性を示すことを仮定し,ニュース記事のテキストのみを用いて,どの事実が更新されるかを予測する。
論文 参考訳(メタデータ) (2024-11-27T23:35:23Z) - 3DLNews: A Three-decade Dataset of US Local News Articles [49.1574468325115]
3DLNewsは、1996年から2024年までの期間にアメリカのローカルニュース記事を載せた、新しいデータセットである。
約100万のURL(HTMLテキストを含む)があり、50州で14,000以上の地元新聞、テレビ、ラジオ局から提供されている。
論文 参考訳(メタデータ) (2024-08-08T18:33:37Z) - Specious Sites: Tracking the Spread and Sway of Spurious News Stories at
Scale [6.917588580148212]
我々は1,334件の信頼できないニュースサイトで52,036件の物語を識別する。
本稿では,信頼できないニュースサイトから新たな物語を検出するために,我々のシステムをいかに活用できるかを示す。
論文 参考訳(メタデータ) (2023-08-03T22:42:30Z) - FALSE: Fake News Automatic and Lightweight Solution [0.20999222360659603]
本稿では,現代のフェイクニュースデータセットの研究と可視化にR符号を用いた。
クラスタリング、分類、相関、およびさまざまなプロットを使用してデータを分析し、提示する。
論文 参考訳(メタデータ) (2022-08-16T11:53:30Z) - Misinfo Belief Frames: A Case Study on Covid & Climate News [49.979419711713795]
読者がニュースの信頼性や誤った情報の影響をどのように認識するかを理解するための形式主義を提案する。
23.5kの見出しに66kの推論データセットであるMisinfo Belief Frames (MBF) corpusを紹介する。
大規模言語モデルを用いて誤情報フレームを予測した結果,機械生成推論がニュース見出しに対する読者の信頼に影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2021-04-18T09:50:11Z) - The Rise and Fall of Fake News sites: A Traffic Analysis [62.51737815926007]
偽ニュースサイトのオンラインプレゼンスを調査し、実際のニュースサイトと比較してその行動を特徴づけます。
そこで本研究では,偽ニュースサイトを自動的に検出するコンテンツ非依存のMLを構築した。
論文 参考訳(メタデータ) (2021-03-16T18:10:22Z) - BaitWatcher: A lightweight web interface for the detection of
incongruent news headlines [27.29585619643952]
BaitWatcherは軽量なWebインターフェースで、ニュース記事の見出しをクリックする前に、読者が不一致の可能性を推定する。
BaiittWatcherは階層的リカレントエンコーダを使用して、ニュース見出しとその関連するボディテキストの複雑なテキスト表現を効率的に学習する。
論文 参考訳(メタデータ) (2020-03-23T23:43:02Z) - 365 Dots in 2019: Quantifying Attention of News Sources [69.50862982117125]
様々な情報源から,オンラインニュース記事の話題の重複を計測する。
ほぼリアルタイムで注目度に応じてニュースストーリーを採点する。
これにより、最も注目を集めているトピックを識別するなど、複数の研究が可能になる。
論文 参考訳(メタデータ) (2020-03-22T20:32:47Z) - HoaxItaly: a collection of Italian disinformation and fact-checking
stories shared on Twitter in 2019 [72.96986027203377]
データセットには約37Kのニュース記事のタイトルとボディも含まれている。
https://doi.org/10.79DVN/PGVDHXで公開されている。
論文 参考訳(メタデータ) (2020-01-29T16:14:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。