論文の概要: YouTube Recommendations Reinforce Negative Emotions: Auditing Algorithmic Bias with Emotionally-Agentic Sock Puppets
- arxiv url: http://arxiv.org/abs/2501.15048v1
- Date: Sat, 25 Jan 2025 03:04:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:57:34.533958
- Title: YouTube Recommendations Reinforce Negative Emotions: Auditing Algorithmic Bias with Emotionally-Agentic Sock Puppets
- Title(参考訳): YouTube Recommendations Reinforce Negative Emotions: Auditing Algorithmic Bias with Emotionally-Agentic Sock Puppets
- Authors: Hussam Habib, Rishab Nithyanand,
- Abstract要約: 本研究では、感情的嗜好を認識し、強化するYouTubeの能力について検討する。
以上の結果から,YouTubeは怒りや悲しみなどの否定的な感情を増幅し,レコメンデーションの頻度と優位性を高めていることが明らかとなった。
発見は、アルゴリズムがユーザーのバイアスを増幅し、感情的なフィルターバブルに寄与し、ユーザーの幸福と社会的影響に対する懸念を高めることを示唆している。
- 参考スコア(独自算出の注目度): 0.624709220163167
- License:
- Abstract: Personalized recommendation algorithms, like those on YouTube, significantly shape online content consumption. These systems aim to maximize engagement by learning users' preferences and aligning content accordingly but may unintentionally reinforce impulsive and emotional biases. Using a sock-puppet audit methodology, this study examines YouTube's capacity to recognize and reinforce emotional preferences. Simulated user accounts with assigned emotional preferences navigate the platform, selecting videos that align with their assigned preferences and recording subsequent recommendations. Our findings reveal reveal that YouTube amplifies negative emotions, such as anger and grievance, by increasing their prevalence and prominence in recommendations. This reinforcement intensifies over time and persists across contexts. Surprisingly, contextual recommendations often exceed personalized ones in reinforcing emotional alignment. These findings suggest the algorithm amplifies user biases, contributing to emotional filter bubbles and raising concerns about user well-being and societal impacts. The study emphasizes the need for balancing personalization with content diversity and user agency.
- Abstract(参考訳): YouTubeのようなパーソナライズされたレコメンデーションアルゴリズムは、オンラインコンテンツの消費を大きく変える。
これらのシステムは、ユーザの好みを学習し、コンテンツを調整することでエンゲージメントを最大化することを目的としている。
本研究は, ソック・パペット・監査手法を用いて, 感情的嗜好を認識し, 強化するYouTubeの能力について検討した。
ユーザアカウントをシミュレートして、指定された感情的嗜好をナビゲートし、割り当てられた嗜好に沿ったビデオを選択し、その後のレコメンデーションを記録する。
以上の結果から,YouTubeは怒りや悲しみなどの否定的な感情を増幅し,レコメンデーションの頻度と優位性を高めていることが明らかとなった。
この強化は時間の経過とともに強化され、コンテキストにわたって持続する。
驚くべきことに、情緒的アライメントの強化において、文脈的レコメンデーションはパーソナライズされたレコメンデーションを超えることがしばしばある。
これらの結果は、アルゴリズムがユーザのバイアスを増幅し、感情的なフィルターバブルに寄与し、ユーザの幸福感や社会的影響に対する懸念を高めることを示唆している。
この研究は、パーソナライズとコンテンツ多様性とユーザエージェンシーとのバランスの必要性を強調している。
関連論文リスト
- Towards Empathetic Conversational Recommender Systems [77.53167131692]
本稿では,共感型会話レコメンデータ(ECR)フレームワークを提案する。
ECRには、感情対応アイテムレコメンデーションと感情対応応答生成という、2つの主要なモジュールが含まれている。
ReDialデータセットの実験は、推奨精度を高め、ユーザの満足度を向上させる上で、我々のフレームワークの有効性を検証する。
論文 参考訳(メタデータ) (2024-08-30T15:43:07Z) - Empathic Responding for Digital Interpersonal Emotion Regulation via Content Recommendation [0.39321523855648755]
本稿では、コンテンツレコメンデーションを通じて、オンラインプラットフォーム上での対人感情規制を強化するアプローチを提案する。
提案する推薦システムは,システム開始とユーザ開始の感情制御を融合させることが期待される。
この研究はReddit上で1年間に37.5万件のユーザー投稿と対話を収集し、CMAB(Contextual Multi-Armed Bandits)ベースのレコメンデーションシステムを設計した。
論文 参考訳(メタデータ) (2024-08-05T10:27:28Z) - Measuring Strategization in Recommendation: Users Adapt Their Behavior to Shape Future Content [66.71102704873185]
実験と調査を行うことで,ユーザストラテジゼーションの試行を行う。
参加者の居住時間や「いいね!」の使用など,結果指標間での戦略化の強い証拠を見出す。
この結果から,プラットフォームはアルゴリズムがユーザの行動に与える影響を無視できないことが示唆された。
論文 参考訳(メタデータ) (2024-05-09T07:36:08Z) - A First Look at Selection Bias in Preference Elicitation for Recommendation [64.44255178199846]
選好選好における選好バイアスの影響について検討した。
大きなハードルは、好みの推論インタラクションを持つ公開データセットがないことです。
本稿では,トピックに基づく選好提案プロセスのシミュレーションを提案する。
論文 参考訳(メタデータ) (2024-05-01T14:56:56Z) - Emotion-Aware Music Recommendation System: Enhancing User Experience
Through Real-Time Emotional Context [1.3812010983144802]
本研究では,従来の音楽レコメンデーションシステムにおいて,ユーザの音楽選択を形作る上で,感情が重要な役割を担っていることに焦点をあてる。
歌のレコメンデーションプロセスに感情的コンテキストを取り入れたAIモデルを導入する。
リアルタイムの感情を正確に検出することで、モデルはユーザーの感情状態に合わせてパーソナライズされた歌のレコメンデーションを生成することができる。
論文 参考訳(メタデータ) (2023-11-17T05:55:36Z) - Fairness Through Domain Awareness: Mitigating Popularity Bias For Music
Discovery [56.77435520571752]
音楽発見と人気バイアスの本質的な関係について検討する。
本稿では,グラフニューラルネットワーク(GNN)に基づくレコメンデータシステムにおいて,人気バイアスに対処する,ドメイン対応の個別フェアネスに基づくアプローチを提案する。
我々のアプローチでは、個々の公正さを用いて、真実を聴く経験、すなわち2つの歌が似ているとすると、この類似性は彼らの表現に反映されるべきである。
論文 参考訳(メタデータ) (2023-08-28T14:12:25Z) - Engagement, User Satisfaction, and the Amplification of Divisive Content on Social Media [22.206581957044513]
Twitterのエンゲージメントに基づくランキングアルゴリズムは、感情に満ちた、グループ外の敵対的なコンテンツを増幅する。
本稿では,ユーザの指定した嗜好に基づいてコンテンツをランク付けする代替アプローチの意義について考察する。
論文 参考訳(メタデータ) (2023-05-26T13:57:30Z) - How Would The Viewer Feel? Estimating Wellbeing From Video Scenarios [73.24092762346095]
情緒応答と主観的幸福感に注釈を付けた6万本以上のビデオを備えた大規模データセットを2つ導入した。
Video Cognitive Empathyデータセットには、微粒な感情応答の分布のためのアノテーションが含まれており、モデルが感情状態の詳細な理解を得ることができる。
Video to Valenceデータセットには、ビデオ間の相対的な快適性のアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-10-18T17:58:25Z) - Modeling Content Creator Incentives on Algorithm-Curated Platforms [76.53541575455978]
本研究では,アルゴリズムの選択が露出ゲームにおける(ナッシュ)平衡の存在と性格にどのように影響するかを検討する。
本研究では、露出ゲームにおける平衡を数値的に見つけるためのツールを提案し、MovieLensとLastFMデータセットの監査結果を示す。
論文 参考訳(メタデータ) (2022-06-27T08:16:59Z) - Preference Dynamics Under Personalized Recommendations [12.89628003097857]
ユーザがパーソナライズされたコンテンツレコメンデーションを受けると、偏光に類似する現象が生じるかどうかを示す。
より興味深い目的は、リコメンデーションアルゴリズムがユーザの好みの定常性を保証するための条件を理解することである。
論文 参考訳(メタデータ) (2022-05-25T19:29:53Z) - YouTube, The Great Radicalizer? Auditing and Mitigating Ideological
Biases in YouTube Recommendations [20.145485714154933]
われわれはYouTubeのレコメンデーションシステムの体系的な監査を行う。
YouTubeのレコメンデーションは、特に右利きのユーザーにとって、イデオロギー的に偏り、過激なコンテンツに直結している。
我々の介入は、観察された偏見を効果的に緩和し、イデオロギー的に中立で、多様性があり、異種コンテンツをより推奨する。
論文 参考訳(メタデータ) (2022-03-20T22:45:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。