論文の概要: Machine-Made Media: Monitoring the Mobilization of Machine-Generated
Articles on Misinformation and Mainstream News Websites
- arxiv url: http://arxiv.org/abs/2305.09820v2
- Date: Sat, 16 Sep 2023 02:11:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 23:46:53.893984
- Title: Machine-Made Media: Monitoring the Mobilization of Machine-Generated
Articles on Misinformation and Mainstream News Websites
- Title(参考訳): マシンメイドメディア:誤情報とメインストリームニュースサイトにおける機械学習記事のモビライゼーションのモニタリング
- Authors: Hans W. A. Hanley, Zakir Durumeric
- Abstract要約: 私たちは、DeBERTaベースの合成ニュース検出器を訓練し、3,074情報および主流ニュースサイトから15.9百万件以上を分類します。
2022年1月1日から2023年5月1日にかけて、主流のウェブサイトでは、合成ニュース記事の相対数は61.1%増加し、誤情報サイトでは426%増加した。
- 参考スコア(独自算出の注目度): 6.0971418973431
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As large language models (LLMs) like ChatGPT have gained traction, an
increasing number of news websites have begun utilizing them to generate
articles. However, not only can these language models produce factually
inaccurate articles on reputable websites but disreputable news sites can
utilize LLMs to mass produce misinformation. To begin to understand this
phenomenon, we present one of the first large-scale studies of the prevalence
of synthetic articles within online news media. To do this, we train a
DeBERTa-based synthetic news detector and classify over 15.90 million articles
from 3,074~misinformation and mainstream news websites. We find that between
January 1, 2022, and May 1, 2023, the relative number of synthetic news
articles increased by 61.1% on mainstream websites while increasing by 426% on
misinformation sites. We find that this increase is largely driven by smaller
less popular websites. Analyzing the impact of the release of ChatGPT using an
interrupted-time-series, we show that while its release resulted in a marked
increase in synthetic articles on small sites as well as misinformation news
websites, there was not a corresponding increase on large mainstream news
websites.
- Abstract(参考訳): ChatGPTのような大規模言語モデル(LLM)が注目を集めるにつれ、ニュースサイトが記事作成に利用し始めている。
しかし、これらの言語モデルは、信頼できるウェブサイト上で事実的に不正確な記事を生成できるだけでなく、不確かなニュースサイトはLLMを利用して誤情報を大量生成することができる。
この現象を理解するために、オンラインニュースメディアにおける合成記事の普及に関する最初の大規模研究の1つを提案する。
そのために、debertaベースの合成ニュース検出器を訓練し、3,074~misinformationおよびメインストリームのニュースwebサイトから1590万以上の記事を分類する。
2022年1月1日から2023年5月1日にかけて、主流のウェブサイトでは、合成ニュース記事の相対数は61.1%増加し、誤情報サイトでは426%増加した。
この増加は、ほとんど人気が低いウェブサイトによって引き起こされている。
中断時間番組を用いたChatGPTのリリースの影響を分析した結果,小規模サイトや誤報ニュースサイトにおける合成記事の増加は顕著であったが,大手ニュースサイトではそれに相当する増加は見られなかった。
関連論文リスト
- 3DLNews: A Three-decade Dataset of US Local News Articles [49.1574468325115]
3DLNewsは、1996年から2024年までの期間にアメリカのローカルニュース記事を載せた、新しいデータセットである。
約100万のURL(HTMLテキストを含む)があり、50州で14,000以上の地元新聞、テレビ、ラジオ局から提供されている。
論文 参考訳(メタデータ) (2024-08-08T18:33:37Z) - Adapting Fake News Detection to the Era of Large Language Models [48.5847914481222]
我々は,機械による(言い換えられた)リアルニュース,機械生成のフェイクニュース,人書きのフェイクニュース,人書きのリアルニュースの相互作用について検討する。
我々の実験では、人書き記事のみに特化して訓練された検知器が、機械が生成したフェイクニュースを検出できる興味深いパターンを明らかにしましたが、その逆ではありません。
論文 参考訳(メタデータ) (2023-11-02T08:39:45Z) - Specious Sites: Tracking the Spread and Sway of Spurious News Stories at
Scale [6.917588580148212]
我々は1,334件の信頼できないニュースサイトで52,036件の物語を識別する。
本稿では,信頼できないニュースサイトから新たな物語を検出するために,我々のシステムをいかに活用できるかを示す。
論文 参考訳(メタデータ) (2023-08-03T22:42:30Z) - FALSE: Fake News Automatic and Lightweight Solution [0.20999222360659603]
本稿では,現代のフェイクニュースデータセットの研究と可視化にR符号を用いた。
クラスタリング、分類、相関、およびさまざまなプロットを使用してデータを分析し、提示する。
論文 参考訳(メタデータ) (2022-08-16T11:53:30Z) - Misinfo Belief Frames: A Case Study on Covid & Climate News [49.979419711713795]
読者がニュースの信頼性や誤った情報の影響をどのように認識するかを理解するための形式主義を提案する。
23.5kの見出しに66kの推論データセットであるMisinfo Belief Frames (MBF) corpusを紹介する。
大規模言語モデルを用いて誤情報フレームを予測した結果,機械生成推論がニュース見出しに対する読者の信頼に影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2021-04-18T09:50:11Z) - The Rise and Fall of Fake News sites: A Traffic Analysis [62.51737815926007]
偽ニュースサイトのオンラインプレゼンスを調査し、実際のニュースサイトと比較してその行動を特徴づけます。
そこで本研究では,偽ニュースサイトを自動的に検出するコンテンツ非依存のMLを構築した。
論文 参考訳(メタデータ) (2021-03-16T18:10:22Z) - BaitWatcher: A lightweight web interface for the detection of
incongruent news headlines [27.29585619643952]
BaitWatcherは軽量なWebインターフェースで、ニュース記事の見出しをクリックする前に、読者が不一致の可能性を推定する。
BaiittWatcherは階層的リカレントエンコーダを使用して、ニュース見出しとその関連するボディテキストの複雑なテキスト表現を効率的に学習する。
論文 参考訳(メタデータ) (2020-03-23T23:43:02Z) - 365 Dots in 2019: Quantifying Attention of News Sources [69.50862982117125]
様々な情報源から,オンラインニュース記事の話題の重複を計測する。
ほぼリアルタイムで注目度に応じてニュースストーリーを採点する。
これにより、最も注目を集めているトピックを識別するなど、複数の研究が可能になる。
論文 参考訳(メタデータ) (2020-03-22T20:32:47Z) - HoaxItaly: a collection of Italian disinformation and fact-checking
stories shared on Twitter in 2019 [72.96986027203377]
データセットには約37Kのニュース記事のタイトルとボディも含まれている。
https://doi.org/10.79DVN/PGVDHXで公開されている。
論文 参考訳(メタデータ) (2020-01-29T16:14:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。