論文の概要: Auditing the Biases Enacted by YouTube for Political Topics in Germany
- arxiv url: http://arxiv.org/abs/2107.09922v1
- Date: Wed, 21 Jul 2021 07:53:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 07:47:33.499154
- Title: Auditing the Biases Enacted by YouTube for Political Topics in Germany
- Title(参考訳): ドイツの政治問題でYouTubeが実施したヘイズ(動画)
- Authors: Hendrik Heuer, Hendrik Hoch, Andreas Breiter, Yannis Theocharis
- Abstract要約: われわれはYouTubeのレコメンデーションシステムが一定のバイアスを課しているかどうか検討する。
YouTubeは人気が高まっているが、大体無関係なビデオを推奨している。
我々は、コンテンツの人気と感情の関係を識別し分析する強力な人気バイアスについて論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With YouTube's growing importance as a news platform, its recommendation
system came under increased scrutiny. Recognizing YouTube's recommendation
system as a broadcaster of media, we explore the applicability of laws that
require broadcasters to give important political, ideological, and social
groups adequate opportunity to express themselves in the broadcasted program of
the service. We present audits as an important tool to enforce such laws and to
ensure that a system operates in the public's interest. To examine whether
YouTube is enacting certain biases, we collected video recommendations about
political topics by following chains of ten recommendations per video. Our
findings suggest that YouTube's recommendation system is enacting important
biases. We find that YouTube is recommending increasingly popular but topically
unrelated videos. The sadness evoked by the recommended videos decreases while
the happiness increases. We discuss the strong popularity bias we identified
and analyze the link between the popularity of content and emotions. We also
discuss how audits empower researchers and civic hackers to monitor complex
machine learning (ML)-based systems like YouTube's recommendation system.
- Abstract(参考訳): ニュースプラットフォームとしてのYouTubeの重要性が高まり、レコメンデーションシステムはより精査された。
メディアのブロードキャスターとしてのyoutubeのレコメンデーションシステムを認識し、放送局が重要な政治的、イデオロギー的、社会的グループに対して、サービスのブロードキャスティングされた番組で自己を表現できる十分な機会を与えるよう要求する法律の適用性について検討する。
我々は、こうした法律を施行し、システムが公益に作用することを確実にするための重要な手段として監査を提示する。
youtubeが特定の偏見を犯すかどうかを調べるために、私たちは、ビデオごとに10のレコメンデーションのチェーンに従うことで、政治トピックに関するビデオレコメンデーションを収集した。
われわれはYouTubeのレコメンデーションシステムが重要なバイアスを課していることを示唆している。
YouTubeは人気が高まっているが、無関係なビデオを推奨している。
推奨ビデオによって引き起こされる悲しみは減少し、幸福度は増加する。
我々は,コンテンツの人気傾向と感情の関係を考察し,その傾向を分析した。
また、監査によって研究者や市民ハッカーがYouTubeのレコメンデーションシステムのような複雑な機械学習(ML)ベースのシステムを監視する方法についても議論する。
関連論文リスト
- Cognitive Biases in Large Language Models for News Recommendation [68.90354828533535]
本稿では,認知バイアスが大規模言語モデル(LLM)に基づくニュースレコメンデータシステムに与える影響について検討する。
データ拡張、エンジニアリングと学習アルゴリズムの側面を通じて、これらのバイアスを軽減する戦略について議論する。
論文 参考訳(メタデータ) (2024-10-03T18:42:07Z) - Large Language Models as Recommender Systems: A Study of Popularity Bias [46.17953988777199]
人気アイテムは不釣り合いに推奨され、あまり人気がないが、潜在的に関連のあるアイテムを誇張している。
近年,汎用大規模言語モデルのレコメンデーションシステムへの統合が進んでいる。
本研究は,LLMがレコメンデーションシステムにおける人気バイアスに寄与するか否かを検討する。
論文 参考訳(メタデータ) (2024-06-03T12:53:37Z) - Fairness Through Domain Awareness: Mitigating Popularity Bias For Music
Discovery [56.77435520571752]
音楽発見と人気バイアスの本質的な関係について検討する。
本稿では,グラフニューラルネットワーク(GNN)に基づくレコメンデータシステムにおいて,人気バイアスに対処する,ドメイン対応の個別フェアネスに基づくアプローチを提案する。
我々のアプローチでは、個々の公正さを用いて、真実を聴く経験、すなわち2つの歌が似ているとすると、この類似性は彼らの表現に反映されるべきである。
論文 参考訳(メタデータ) (2023-08-28T14:12:25Z) - Assessing enactment of content regulation policies: A post hoc
crowd-sourced audit of election misinformation on YouTube [9.023847175654602]
我々は、選挙誤報ポリシーの実施範囲を評価するため、YouTube上で9日間のクラウドソースによる監査を行う。
YouTubeの検索結果には、選挙の誤報を支持するのではなく、反対するビデオが多く含まれていることがわかりました。
しかし、いまだに不正な選挙ビデオを見ることは、最新の道筋で少数の誤報ビデオに繋がる。
論文 参考訳(メタデータ) (2023-02-15T18:20:15Z) - Subscriptions and external links help drive resentful users to
alternative and extremist YouTube videos [7.945705756085774]
われわれは、YouTube上の代替チャンネルビデオや過激派チャンネルビデオへの露出が、性別や人種的恨みのレベルが高い少数のグループに大きく集中していることを示した。
われわれの発見は、YouTubeのアルゴリズムが2020年の観測ウィンドウで人々を「ウサギの穴」から追い出していないことを示唆している。
しかし、このプラットフォームは、熱心なオーディエンスの間で、代替チャンネルや過激派チャンネルからのコンテンツへの露出を促進する上で、重要な役割を担っている。
論文 参考訳(メタデータ) (2022-04-22T20:22:06Z) - YouTube, The Great Radicalizer? Auditing and Mitigating Ideological
Biases in YouTube Recommendations [20.145485714154933]
われわれはYouTubeのレコメンデーションシステムの体系的な監査を行う。
YouTubeのレコメンデーションは、特に右利きのユーザーにとって、イデオロギー的に偏り、過激なコンテンツに直結している。
我々の介入は、観察された偏見を効果的に緩和し、イデオロギー的に中立で、多様性があり、異種コンテンツをより推奨する。
論文 参考訳(メタデータ) (2022-03-20T22:45:56Z) - Examining the consumption of radical content on YouTube [1.2820564400223966]
近年、YouTubeの規模は、YouTubeユーザーが偏見のあるレコメンデーションと、表面上は非政治的なアンチ・ウォークチャンネルの組み合わせによって過激化しているという懸念を喚起している。
ここでは、30万人以上のアメリカ人の代表パネルと個人レベルの閲覧行動を用いて、この仮説を検証する。
極右コンテンツへのエンゲージメントがYouTubeのレコメンデーションによって体系的に引き起こされているという証拠も、反煙チャンネルが極右への入り口として機能しているという明確な証拠も見つからない。
論文 参考訳(メタデータ) (2020-11-25T16:00:20Z) - Understanding YouTube Communities via Subscription-based Channel
Embeddings [0.0]
本稿では,YouTubeチャンネルの発見と分類を行う新しい手法を提案する。
これらの手法は、コメントの公開購読ページを活用する自己教師付き学習アプローチを使用する。
異なる政治コンテンツへのトラフィック量を分析するために、新しいデータセットを作成します。
論文 参考訳(メタデータ) (2020-10-19T22:00:04Z) - Political audience diversity and news reliability in algorithmic ranking [54.23273310155137]
本稿では,ウェブサイトのオーディエンスの政治的多様性を質の指標として活用することを提案する。
ドメインの専門家によるニュースソースの信頼性評価と6,890人の米国市民の多様なサンプルによるWebブラウジングデータを用いて、より極端な、政治的に多様性の低いWebサイトが、ジャーナリストの基準を低くしていることを示す。
論文 参考訳(メタデータ) (2020-07-16T02:13:55Z) - Survey for Trust-aware Recommender Systems: A Deep Learning Perspective [48.2733163413522]
信頼できるレコメンデーションシステムを採用することが重要になります。
本調査では,信頼を意識したレコメンデータシステムの3つのカテゴリについて概説する。
論文 参考訳(メタデータ) (2020-04-08T02:11:55Z) - Mi YouTube es Su YouTube? Analyzing the Cultures using YouTube
Thumbnails of Popular Videos [98.87558262467257]
本研究では,YouTubeのトレンド動画のサムネイルを用いて,各国の文化選好について検討した。
実験の結果、類似文化のユーザーはYouTubeで同様のビデオを見ることに興味を持っていることがわかった。
論文 参考訳(メタデータ) (2020-01-27T20:15:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。