論文の概要: A Longitudinal Analysis of YouTube's Promotion of Conspiracy Videos
- arxiv url: http://arxiv.org/abs/2003.03318v1
- Date: Fri, 6 Mar 2020 17:31:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 08:57:59.758196
- Title: A Longitudinal Analysis of YouTube's Promotion of Conspiracy Videos
- Title(参考訳): youtubeによる共謀ビデオのプロモーションに関する縦断分析
- Authors: Marc Faddoul, Guillaume Chaslot and Hany Farid
- Abstract要約: ソーシャルメディア上では陰謀説が盛んになり、そのようなコンテンツが偽情報の拡散を加速させ、過激派イデオロギーを支持し、場合によっては暴力に繋がる懸念が高まっている。
議員や一般大衆からの監視と圧力が高まる中、YouTubeはレコメンデーションアルゴリズムを変更して、最も厳格な陰謀ビデオが削除され、悪用されるようにした。
ビデオが相補的かどうかを自動的に判定する分類器を開発した。
- 参考スコア(独自算出の注目度): 14.867862489411868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conspiracy theories have flourished on social media, raising concerns that
such content is fueling the spread of disinformation, supporting extremist
ideologies, and in some cases, leading to violence. Under increased scrutiny
and pressure from legislators and the public, YouTube announced efforts to
change their recommendation algorithms so that the most egregious conspiracy
videos are demoted and demonetized. To verify this claim, we have developed a
classifier for automatically determining if a video is conspiratorial (e.g.,
the moon landing was faked, the pyramids of Giza were built by aliens, end of
the world prophecies, etc.). We coupled this classifier with an emulation of
YouTube's watch-next algorithm on more than a thousand popular informational
channels to obtain a year-long picture of the videos actively promoted by
YouTube. We also obtained trends of the so-called filter-bubble effect for
conspiracy theories.
- Abstract(参考訳): ソーシャルメディア上では陰謀説が盛んになり、そのようなコンテンツが偽情報の拡散を加速させ、過激派イデオロギーを支持し、時には暴力につながるという懸念が高まっている。
議員や一般大衆からの監視と圧力が高まる中、YouTubeはレコメンデーションアルゴリズムを変更して、最も厳格な陰謀ビデオが削除され、悪用されるようにした。
この主張を検証するために、ビデオが陰謀的かどうかを自動的に判定する分類器を開発した(例えば、月面着陸が偽造されたり、ギザのピラミッドがエイリアンによって作られたり、世界の予言が終わるなど)。
我々はこの分類器と、千以上の人気情報チャンネルでyoutubeのwatch-nextアルゴリズムのエミュレーションを組み合わせることで、youtubeが積極的に宣伝しているビデオの1年間の写真を得た。
また,共謀理論に対するフィルタバブル効果の傾向についても考察した。
関連論文リスト
- The Conspiracy Money Machine: Uncovering Telegram's Conspiracy Channels and their Profit Model [50.80312055220701]
陰謀のチャネルは、17,000以上のチャンネルからなる4つの異なるコミュニティにまとめることができる。
陰謀論者はeコマースプラットフォームを利用して、疑わしい商品を販売したり、アフィリエイトリンクを通じて利益を上げたりする。
この事業には何十万もの寄付者が参加し、約6600万ドル(約6億6000万円)の転売を生んでいると結論付けている。
論文 参考訳(メタデータ) (2023-10-24T16:25:52Z) - YouNICon: YouTube's CommuNIty of Conspiracy Videos [7.135697290631831]
YOUNICONは、陰謀説を含むと特定された疑わしいチャンネルから大量のビデオを集めたデータセットである。
そこで本研究では,共謀理論の検出と,共謀理論を用いた動画の異なるトピックへの分類を行うためのデータセット「YOUNICON」の開発を試みている。
論文 参考訳(メタデータ) (2023-04-11T15:20:51Z) - A Golden Age: Conspiracy Theories' Relationship with Misinformation
Outlets, News Media, and the Wider Internet [6.917588580148212]
我々は、5つの陰謀論に特化した755の異なる陰謀論ウェブサイトを特定し、公開する。
それぞれのセットが、同じ外部ドメインにハイパーリンクされることがよくあります。
ニュースメディアの役割を調べると、報道機関は陰謀論のウェブサイトに偽情報のハイパーリンクを広めることが知られているだけでなく、真正なニュースサイトよりも頻繁に行われていることが分かる。
論文 参考訳(メタデータ) (2023-01-26T00:20:02Z) - Video Manipulations Beyond Faces: A Dataset with Human-Machine Analysis [60.13902294276283]
我々は826の動画(413のリアルと413の操作)からなるデータセットであるVideoShamを提示する。
既存のディープフェイクデータセットの多くは、2種類の顔操作にのみ焦点をあてている。
我々の分析によると、最先端の操作検出アルゴリズムはいくつかの特定の攻撃に対してのみ有効であり、VideoShamではうまくスケールしない。
論文 参考訳(メタデータ) (2022-07-26T17:39:04Z) - Detecting Deepfake by Creating Spatio-Temporal Regularity Disruption [94.5031244215761]
本稿では,実際のビデオにない「規則性破壊」を識別することで,ディープフェイク検出の一般化を促進することを提案する。
具体的には、空間的・時間的特性を慎重に調べることで、擬似フェイク発生器による実映像の破壊を提案する。
このような手法により,フェイクビデオを使わずにディープフェイク検出が可能となり,よりシンプルかつ効率的に一般化能力を向上させることができる。
論文 参考訳(メタデータ) (2022-07-21T10:42:34Z) - Conspiracy Brokers: Understanding the Monetization of YouTube Conspiracy
Theories [8.416017904031792]
6,347人のユニークな広告主から184,218件の広告インプレッションを集めています。
メインストリームのコンテンツと比較すると、陰謀ビデオは有名ブランドの広告のレベルが似ているが、捕食的または偽造的な広告の頻度はおよそ11倍だった。
論文 参考訳(メタデータ) (2022-05-31T16:42:52Z) - Where the Earth is flat and 9/11 is an inside job: A comparative
algorithm audit of conspiratorial information in web search results [62.997667081978825]
本稿では,Google,Bing,DuckDuckGo,Yahoo,Yandexの5つの検索エンジンを対象に,検索結果における比較情報の分布について検討する。
われわれは、Google以外の検索エンジンが一貫して共謀広告の検索結果を表示し、共謀広告のウェブサイトへのリンクをトップに返したことを知った。
共謀プロモーティングの結果のほとんどはソーシャルメディアや共謀のウェブサイトから得られたものであり、一方共謀の情報は科学的なウェブサイトで共有され、より少なからぬレガシなメディアによって共有された。
論文 参考訳(メタデータ) (2021-12-02T14:29:21Z) - Uncovering the Dark Side of Telegram: Fakes, Clones, Scams, and
Conspiracy Movements [67.39353554498636]
我々は35,382の異なるチャンネルと130,000,000以上のメッセージを収集して,Telegramの大規模解析を行う。
カードなどのダークウェブのプライバシー保護サービスにも、悪名高い活動がいくつかある。
疑似チャネルを86%の精度で識別できる機械学習モデルを提案する。
論文 参考訳(メタデータ) (2021-11-26T14:53:31Z) - The Truth is Out There: Investigating Conspiracy Theories in Text
Generation [66.01545519772527]
言語モデルが陰謀理論テキストを生成する可能性を検討する。
本研究は陰謀理論の解明のためにこれらのモデルをテストすることに焦点を当てている。
陰謀理論のトピック、機械生成陰謀理論、人為的陰謀理論からなる新しいデータセットを紹介します。
論文 参考訳(メタデータ) (2021-01-02T05:47:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。