論文の概要: Auditing YouTube's Recommendation Algorithm for Misinformation Filter
Bubbles
- arxiv url: http://arxiv.org/abs/2210.10085v1
- Date: Tue, 18 Oct 2022 18:27:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-10-20 15:58:23.168228
- Title: Auditing YouTube's Recommendation Algorithm for Misinformation Filter
Bubbles
- Title(参考訳): 誤報フィルターバブルに対するYouTubeの推奨アルゴリズムの検証
- Authors: Ivan Srba, Robert Moro, Matus Tomlein, Branislav Pecher, Jakub Simko,
Elena Stefancova, Michal Kompan, Andrea Hrckova, Juraj Podrouzek, Adrian
Gavornik, Maria Bielikova
- Abstract要約: 本研究では,ユーザが誤報フィルタバブルにどの程度の速さで到達できるかを調査するため,YouTube上で実施した監査研究の結果を報告する。
そこで我々は,事前にプログラムされたエージェント(YouTubeユーザとして活動する)が,偽情報の宣伝コンテンツを見て誤情報フィルタバブルを掘り下げる,靴下人形監査手法を採用した。
その後、彼らはバブルを破裂させ、誤った情報を流すコンテンツを見て、よりバランスのとれたレコメンデーションに到達しようと試みる。
- 参考スコア(独自算出の注目度): 0.5898451150401338
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present results of an auditing study performed over YouTube
aimed at investigating how fast a user can get into a misinformation filter
bubble, but also what it takes to "burst the bubble", i.e., revert the bubble
enclosure. We employ a sock puppet audit methodology, in which pre-programmed
agents (acting as YouTube users) delve into misinformation filter bubbles by
watching misinformation promoting content. Then they try to burst the bubbles
and reach more balanced recommendations by watching misinformation debunking
content. We record search results, home page results, and recommendations for
the watched videos. Overall, we recorded 17,405 unique videos, out of which we
manually annotated 2,914 for the presence of misinformation. The labeled data
was used to train a machine learning model classifying videos into three
classes (promoting, debunking, neutral) with the accuracy of 0.82. We use the
trained model to classify the remaining videos that would not be feasible to
annotate manually.
Using both the manually and automatically annotated data, we observe the
misinformation bubble dynamics for a range of audited topics. Our key finding
is that even though filter bubbles do not appear in some situations, when they
do, it is possible to burst them by watching misinformation debunking content
(albeit it manifests differently from topic to topic). We also observe a sudden
decrease of misinformation filter bubble effect when misinformation debunking
videos are watched after misinformation promoting videos, suggesting a strong
contextuality of recommendations. Finally, when comparing our results with a
previous similar study, we do not observe significant improvements in the
overall quantity of recommended misinformation content.
- Abstract(参考訳): 本稿では,ユーザが偽情報フィルタバブルにどれだけ早く侵入できるか,また「バブルを浸す」のに何が必要か,すなわちバブルの封筒を戻すために何が必要かを調べることを目的とした,youtube上で実施した監査研究の結果について述べる。
そこで我々は,事前にプログラムされたエージェント(YouTubeユーザとして活動する)が,偽情報の宣伝コンテンツを見て誤情報フィルタバブルを掘り下げる,靴下人形監査手法を採用した。
そして、バブルを破裂させ、誤った情報を流すコンテンツを見て、よりバランスのとれたレコメンデーションに到達しようとする。
私たちは、検索結果、ホームページの結果、視聴されたビデオのレコメンデーションを記録します。
全体で17,405本のユニークなビデオを録画し、その中の2,914本を誤報の存在について手動で注釈付けしました。
ラベル付きデータは、ビデオを0.82の精度で3つのクラス(プロモーティング、デバンキング、ニュートラル)に分類する機械学習モデルをトレーニングするために使用された。
トレーニングされたモデルを使用して、手動で注釈付けできない残りのビデオを分類します。
手動データと自動アノテートデータの両方を使用して,監査対象トピックの誤情報のバブルダイナミクスを観察した。
私たちのキーとなる発見は、フィルターバブルが一部の状況では現れないとしても、その場合、誤報を流すコンテンツ(話題によって異なるが)を見ることで、それらを破裂させることが可能であることです。
また,誤報拡散ビデオがビデオ宣伝後に見られると,誤報フィルタのバブル効果が突然減少し,推奨の強い文脈性を示す。
最後に,過去の類似研究と比較した場合,推奨された誤情報の量全体の改善はみられなかった。
関連論文リスト
- Uncovering the Deep Filter Bubble: Narrow Exposure in Short-Video
Recommendation [30.395376392259497]
フィルタバブルは、オンラインコンテンツプラットフォームのコンテキスト内で広く研究されている。
ショートビデオプラットフォームの増加に伴い、フィルターバブルはさらに注目されている。
論文 参考訳(メタデータ) (2024-03-07T14:14:40Z) - The Potential of Vision-Language Models for Content Moderation of
Children's Videos [1.0589208420411014]
本稿では、文脈固有の言語がコンテンツモデレーション性能にどのように影響するかを詳細に分析する。
コンテンツモデレーションのプロンプトにもっとコンテキストを含めることが重要です。
論文 参考訳(メタデータ) (2023-12-06T22:29:16Z) - Causalainer: Causal Explainer for Automatic Video Summarization [77.36225634727221]
多くのアプリケーションシナリオにおいて、不適切なビデオ要約は大きな影響を与える可能性がある。
説明可能性のモデリングは重要な関心事です。
Causalainerと呼ばれるCausal Explainerがこの問題に対処するために提案されている。
論文 参考訳(メタデータ) (2023-04-30T11:42:06Z) - An Audit of Misinformation Filter Bubbles on YouTube: Bubble Bursting
and Recent Behavior Changes [0.6094711396431726]
本稿では,事前にプログラムされたエージェント(YouTubeユーザとして動作する)が誤情報フィルタバブルを掘り下げる研究について述べる。
私たちの重要な発見は、フィルターバブルの破裂が可能であることです。
残念なことに、YouTubeの最近の誓約にもかかわらず、誤報の発生についてあまり改善は見つからなかった。
論文 参考訳(メタデータ) (2022-03-25T16:49:57Z) - Look for the Change: Learning Object States and State-Modifying Actions
from Untrimmed Web Videos [55.60442251060871]
人間の行動は、しばしば「リンゴを切る」や「コーヒーを飲む」といった対象状態の変化を引き起こす。
我々は、対応する対象状態とともに、状態修正動作を協調学習するための自己教師型モデルを開発する。
本モデルでは,ノイズ適応重み付けモジュールを少数の注釈付静止画像で教師する。
論文 参考訳(メタデータ) (2022-03-22T11:45:10Z) - Misinformation Detection on YouTube Using Video Captions [6.503828590815483]
本研究では,最新のNLP技術を用いて映像キャプション(字幕)から特徴を抽出する手法を提案する。
提案手法を評価するために,動画を誤情報か否かを分類するために,公開アクセス可能なラベル付きデータセットを用いた。
論文 参考訳(メタデータ) (2021-07-02T10:02:36Z) - What's wrong with this video? Comparing Explainers for Deepfake
Detection [13.089182408360221]
Deepfakesは、個人の顔が別の顔に置き換えられたコンピュータ操作されたビデオです。
本研究では,実映像と偽動画のラベル付けを説明するために,ホワイトボックス,ブラックボックス,モデル固有の手法を開発し,拡張し,比較する。
特に,shap,gradcam,self-attentionモデルを用いて,高効率ネットに基づく最先端検出器の予測を説明する。
論文 参考訳(メタデータ) (2021-05-12T18:44:39Z) - Watch and Learn: Mapping Language and Noisy Real-world Videos with
Self-supervision [54.73758942064708]
我々は、明示的なアノテーションを使わずに、文章と騒々しいビデオスニペットのマッピングを学習することで、視覚と自然言語を理解するように機械に教える。
トレーニングと評価のために、多数のオンラインビデオとサブタイトルを含む新しいデータセットApartmenTourをコントリビュートする。
論文 参考訳(メタデータ) (2020-11-19T03:43:56Z) - Regularized Two-Branch Proposal Networks for Weakly-Supervised Moment
Retrieval in Videos [108.55320735031721]
ビデオモーメント検索は、所定の文に従って、ビデオ中のターゲットモーメントをローカライズすることを目的としている。
既存の弱監督手法の多くは、MILベースのフレームワークをサンプル間対決の開発に適用している。
本稿では,サンプル間およびサンプル内対立を同時に検討するための,正規化された2分岐提案ネットワークを提案する。
論文 参考訳(メタデータ) (2020-08-19T04:42:46Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - Misinformation Has High Perplexity [55.47422012881148]
疑似クレームを教師なしの方法でデバンクするために, 難易度を活用することを提案する。
まず,これらの主張に類似した文に基づいて,科学的およびニュースソースから信頼性のある証拠を抽出する。
第2に,抽出したエビデンスを言語モデルにプライマリし,難易度スコアに基づいて与えられたクレームの正当性を評価する。
論文 参考訳(メタデータ) (2020-06-08T15:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。