論文の概要: An Audit of Misinformation Filter Bubbles on YouTube: Bubble Bursting
and Recent Behavior Changes
- arxiv url: http://arxiv.org/abs/2203.13769v1
- Date: Fri, 25 Mar 2022 16:49:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-28 14:09:46.094418
- Title: An Audit of Misinformation Filter Bubbles on YouTube: Bubble Bursting
and Recent Behavior Changes
- Title(参考訳): youtube上の偽情報フィルターバブルの監査:バブルバーストと最近の行動変化
- Authors: Matus Tomlein, Branislav Pecher, Jakub Simko, Ivan Srba, Robert Moro,
Elena Stefancova, Michal Kompan, Andrea Hrckova, Juraj Podrouzek, Maria
Bielikova
- Abstract要約: 本稿では,事前にプログラムされたエージェント(YouTubeユーザとして動作する)が誤情報フィルタバブルを掘り下げる研究について述べる。
私たちの重要な発見は、フィルターバブルの破裂が可能であることです。
残念なことに、YouTubeの最近の誓約にもかかわらず、誤報の発生についてあまり改善は見つからなかった。
- 参考スコア(独自算出の注目度): 0.6094711396431726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The negative effects of misinformation filter bubbles in adaptive systems
have been known to researchers for some time. Several studies investigated,
most prominently on YouTube, how fast a user can get into a misinformation
filter bubble simply by selecting wrong choices from the items offered. Yet, no
studies so far have investigated what it takes to burst the bubble, i.e.,
revert the bubble enclosure. We present a study in which pre-programmed agents
(acting as YouTube users) delve into misinformation filter bubbles by watching
misinformation promoting content (for various topics). Then, by watching
misinformation debunking content, the agents try to burst the bubbles and reach
more balanced recommendation mixes. We recorded the search results and
recommendations, which the agents encountered, and analyzed them for the
presence of misinformation. Our key finding is that bursting of a filter bubble
is possible, albeit it manifests differently from topic to topic. Moreover, we
observe that filter bubbles do not truly appear in some situations. We also
draw a direct comparison with a previous study. Sadly, we did not find much
improvements in misinformation occurrences, despite recent pledges by YouTube.
- Abstract(参考訳): 適応系における誤情報フィルタバブルの悪影響は、研究者によってしばらく前から知られている。
いくつかの研究で、特にyoutube上では、提供されたアイテムから間違った選択を選択するだけで、ユーザーが偽情報フィルターバブルに入る速度が調査された。
しかし、これまでバブルを破裂させるのに何が必要か、すなわちバブルの囲いを逆転させる研究は行われていない。
本稿では,事前にプログラムされたエージェント(YouTubeユーザとして行動する)が,誤情報宣伝コンテンツ(様々なトピック)を見て誤情報フィルタバブルを掘り下げる研究について述べる。
そして、誤報を流すコンテンツを見ることで、エージェントはバブルを破裂させ、よりバランスのとれたレコメンデーションミックスに到達しようとします。
エージェントが遭遇した検索結果とレコメンデーションを記録し,誤報の有無について分析した。
私たちの重要な発見は、フィルターバブルの破裂が可能であることです。
また, フィルタ気泡が実際に現れることはないことを観察した。
また,前回の研究では直接比較を行った。
残念なことに、YouTubeの最近の誓約にもかかわらず、誤報の発生についてあまり改善は見つからなかった。
関連論文リスト
- Explainability and Hate Speech: Structured Explanations Make Social Media Moderators Faster [72.84926097773578]
実世界のモデレーターの速度に及ぼす説明の影響について検討する。
我々の実験では、一般的な説明は速度に影響せず、しばしば無視されるが、構造化された説明はモデレーターの意思決定時間を7.4%減少させる。
論文 参考訳(メタデータ) (2024-06-06T14:23:10Z) - Uncovering the Deep Filter Bubble: Narrow Exposure in Short-Video
Recommendation [30.395376392259497]
フィルタバブルは、オンラインコンテンツプラットフォームのコンテキスト内で広く研究されている。
ショートビデオプラットフォームの増加に伴い、フィルターバブルはさらに注目されている。
論文 参考訳(メタデータ) (2024-03-07T14:14:40Z) - Filter Bubbles in Recommender Systems: Fact or Fallacy -- A Systematic
Review [7.121051191777698]
フィルターバブルとは、インターネットのカスタマイズによって様々な意見や素材から個人を効果的に隔離する現象を指す。
我々は,レコメンデータシステムにおけるフィルタバブルの話題について,系統的な文献レビューを行う。
本稿では,フィルタバブルの影響を緩和する機構を提案し,多様性をレコメンデーションに組み込むことで,この問題を緩和できる可能性を実証する。
論文 参考訳(メタデータ) (2023-07-02T13:41:42Z) - Auditing YouTube's Recommendation Algorithm for Misinformation Filter
Bubbles [0.5898451150401338]
本研究では,ユーザが誤報フィルタバブルにどの程度の速さで到達できるかを調査するため,YouTube上で実施した監査研究の結果を報告する。
そこで我々は,事前にプログラムされたエージェント(YouTubeユーザとして活動する)が,偽情報の宣伝コンテンツを見て誤情報フィルタバブルを掘り下げる,靴下人形監査手法を採用した。
その後、彼らはバブルを破裂させ、誤った情報を流すコンテンツを見て、よりバランスのとれたレコメンデーションに到達しようと試みる。
論文 参考訳(メタデータ) (2022-10-18T18:27:47Z) - Mitigating Filter Bubbles within Deep Recommender Systems [2.3590112541068575]
推薦システムは、様々な視点からユーザーを知的に隔離したり、フィルターバブルを引き起こすことが知られている。
このフィルタバブル効果を,ユーザとテムのインタラクション履歴に基づいて,様々なデータポイントを分類し,緩和する。
我々は、このフィルタバブル効果を、リコメンデータシステムを再訓練することで、精度を損なうことなく軽減する。
論文 参考訳(メタデータ) (2022-09-16T22:00:10Z) - The Privacy Onion Effect: Memorization is Relative [76.46529413546725]
もっとも脆弱な外接点の"層"を取り除くことで、前もって安全だった点の新たな層を同じ攻撃に晒す。
これは、機械学習のようなプライバシー強化技術が、他のユーザーのプライバシーに悪影響を及ぼす可能性を示唆している。
論文 参考訳(メタデータ) (2022-06-21T15:25:56Z) - LFW-Beautified: A Dataset of Face Images with Beautification and
Augmented Reality Filters [53.180678723280145]
いくつかの操作を含む顔画像のデータベースにコントリビュートする。
画像強調フィルター(コントラストや稲妻を主に修正する)や、動物の鼻や眼鏡などのアイテムを組み込んだ拡張現実フィルターが含まれている。
各データセットには、64×64の4,324枚の画像があり、合計34,592枚の画像がある。
論文 参考訳(メタデータ) (2022-03-11T17:05:10Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - Misinformation Has High Perplexity [55.47422012881148]
疑似クレームを教師なしの方法でデバンクするために, 難易度を活用することを提案する。
まず,これらの主張に類似した文に基づいて,科学的およびニュースソースから信頼性のある証拠を抽出する。
第2に,抽出したエビデンスを言語モデルにプライマリし,難易度スコアに基づいて与えられたクレームの正当性を評価する。
論文 参考訳(メタデータ) (2020-06-08T15:13:44Z) - Can Celebrities Burst Your Bubble? [2.6919164079336992]
偏光の度合いを定量化する最先端技術モデルを用いて、この論文はまず、この疑問に実証的に答える試みである。
議論の的になっている話題にセレブが関わったとき、どのように反応するかをケーススタディで分析し、研究の方向性をリストアップする。
論文 参考訳(メタデータ) (2020-03-15T15:53:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。