論文の概要: Middle-Aged Video Consumers' Beliefs About Algorithmic Recommendations
on YouTube
- arxiv url: http://arxiv.org/abs/2008.03202v1
- Date: Fri, 7 Aug 2020 14:35:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-06 21:44:31.599654
- Title: Middle-Aged Video Consumers' Beliefs About Algorithmic Recommendations
on YouTube
- Title(参考訳): YouTubeでアルゴリズムを推奨する中堅ビデオ消費者の信念
- Authors: Oscar Alvarado, Hendrik Heuer, Vero Vanden Abeele, Andreas Breiter,
Katrien Verbert
- Abstract要約: 我々は,ビデオレコメンデーションシステムに関するユーザの信念を分析するために,中年YouTubeビデオ消費者と半構造化インタビューを行った。
我々は,先進行動,ソーシャルメディア,レコメンダシステム,企業方針という,ユーザの信念の4つのグループを識別する。
ユーザがビデオレコメンデーションに影響を及ぼすと信じている4つの主要なアクターを区別する枠組みを提案する。
- 参考スコア(独自算出の注目度): 2.8325478162326885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: User beliefs about algorithmic systems are constantly co-produced through
user interaction and the complex socio-technical systems that generate
recommendations. Identifying these beliefs is crucial because they influence
how users interact with recommendation algorithms. With no prior work on user
beliefs of algorithmic video recommendations, practitioners lack relevant
knowledge to improve the user experience of such systems. To address this
problem, we conducted semi-structured interviews with middle-aged YouTube video
consumers to analyze their user beliefs about the video recommendation system.
Our analysis revealed different factors that users believe influence their
recommendations. Based on these factors, we identified four groups of user
beliefs: Previous Actions, Social Media, Recommender System, and Company
Policy. Additionally, we propose a framework to distinguish the four main
actors that users believe influence their video recommendations: the current
user, other users, the algorithm, and the organization. This framework provides
a new lens to explore design suggestions based on the agency of these four
actors. It also exposes a novel aspect previously unexplored: the effect of
corporate decisions on the interaction with algorithmic recommendations. While
we found that users are aware of the existence of the recommendation system on
YouTube, we show that their understanding of this system is limited.
- Abstract(参考訳): アルゴリズムシステムに関するユーザ信念は、ユーザインタラクションとレコメンデーションを生成する複雑な社会技術システムを通じて、常に共同生産される。
これらの信念を特定することは、ユーザーがレコメンデーションアルゴリズムとどのように相互作用するかに影響を与えるため重要である。
アルゴリズムビデオレコメンデーションのユーザの信念に関する事前の作業がなければ、実践者はそのようなシステムのユーザエクスペリエンスを改善するための関連する知識を欠いている。
この問題に対処するため,ビデオレコメンデーションシステムに関するユーザの信念を分析するため,中年のyoutubeビデオ利用者と半構造化インタビューを行った。
分析の結果,ユーザが推奨に影響を及ぼすさまざまな要因が明らかになった。
これらの要因から,先行行動,ソーシャルメディア,レコメンダシステム,企業ポリシーの4つのグループを同定した。
さらに、ユーザがビデオレコメンデーションに影響を与えると信じている4つの主要なアクター(現在のユーザ、他のユーザ、アルゴリズム、組織)を区別する枠組みを提案する。
このフレームワークは、これらの4人のアクターのエージェンシーに基づいたデザイン提案を探索する新しいレンズを提供する。
企業の決定がアルゴリズムによるレコメンデーションとのインタラクションに与える影響だ。
ユーザがYouTube上のレコメンデーションシステムの存在に気づいていることを発見したが、このシステムに対する理解は限られている。
関連論文リスト
- Interactive Counterfactual Exploration of Algorithmic Harms in Recommender Systems [3.990406494980651]
本研究では,レコメンデーションシステムにおけるアルゴリズム的害の影響を理解し,探索するための対話型ツールを提案する。
視覚化、反事実的説明、インタラクティブなモジュールを活用することで、ユーザは誤校正などのバイアスがレコメンデーションにどのように影響するかを調査できる。
論文 参考訳(メタデータ) (2024-09-10T23:58:27Z) - The MovieLens Beliefs Dataset: Collecting Pre-Choice Data for Online Recommender Systems [0.0]
本稿では,未経験項目に対するユーザの信念を収集する手法を提案する。
提案手法はMovieLensプラットフォーム上で実装され,ユーザ評価,信念,監視されたレコメンデーションを組み合わせた豊富なデータセットが得られた。
論文 参考訳(メタデータ) (2024-05-17T19:06:06Z) - Measuring Strategization in Recommendation: Users Adapt Their Behavior to Shape Future Content [66.71102704873185]
実験と調査を行うことで,ユーザストラテジゼーションの試行を行う。
参加者の居住時間や「いいね!」の使用など,結果指標間での戦略化の強い証拠を見出す。
この結果から,プラットフォームはアルゴリズムがユーザの行動に与える影響を無視できないことが示唆された。
論文 参考訳(メタデータ) (2024-05-09T07:36:08Z) - User-Controllable Recommendation via Counterfactual Retrospective and
Prospective Explanations [96.45414741693119]
本稿では,説明可能性と可制御性をシームレスに統合するユーザ制御型レコメンデータシステムを提案する。
反ファクト推論を通じて、ふりかえりと予測的な説明の両方を提供することで、ユーザーはシステムに対する制御をカスタマイズできる。
論文 参考訳(メタデータ) (2023-08-02T01:13:36Z) - PIE: Personalized Interest Exploration for Large-Scale Recommender
Systems [0.0]
これらの課題に対処するために,大規模レコメンデータシステムにおける探索のためのフレームワークを提案する。
我々の方法論は、最小限の修正で既存の大規模レコメンデータシステムに容易に統合できる。
私たちの仕事は、何十億ものユーザーを対象とする人気のビデオ発見および共有プラットフォームであるFacebook Watchで運用されている。
論文 参考訳(メタデータ) (2023-04-13T22:25:09Z) - Editable User Profiles for Controllable Text Recommendation [66.00743968792275]
制御可能なテキストレコメンデーションのための新しい概念値ボトルネックモデル LACE を提案する。
LACEは、人間の読みやすい概念の簡潔なセットで各ユーザーを表現する。
ユーザ文書に基づいて概念のパーソナライズされた表現を学習する。
論文 参考訳(メタデータ) (2023-04-09T14:52:18Z) - Breaking Feedback Loops in Recommender Systems with Causal Inference [99.22185950608838]
近年の研究では、フィードバックループが推奨品質を損なう可能性があり、ユーザの振る舞いを均質化している。
本稿では、因果推論を用いてフィードバックループを確実に破壊するアルゴリズムCAFLを提案する。
従来の補正手法と比較して,CAFLは推奨品質を向上することを示す。
論文 参考訳(メタデータ) (2022-07-04T17:58:39Z) - Causal Disentanglement with Network Information for Debiased
Recommendations [34.698181166037564]
近年の研究では、因果的観点からレコメンデーターシステムをモデル化することで、デビアスを提案する。
この設定における重要な課題は、隠れた共同設立者を説明することだ。
我々は,ネットワーク情報(すなわち,ユーザ・ソーシャルおよびユーザ・イテムネットワーク)を活用して,隠れた共同創設者をよりよく近似することを提案する。
論文 参考訳(メタデータ) (2022-04-14T20:55:11Z) - YouTube, The Great Radicalizer? Auditing and Mitigating Ideological
Biases in YouTube Recommendations [20.145485714154933]
われわれはYouTubeのレコメンデーションシステムの体系的な監査を行う。
YouTubeのレコメンデーションは、特に右利きのユーザーにとって、イデオロギー的に偏り、過激なコンテンツに直結している。
我々の介入は、観察された偏見を効果的に緩和し、イデオロギー的に中立で、多様性があり、異種コンテンツをより推奨する。
論文 参考訳(メタデータ) (2022-03-20T22:45:56Z) - FEBR: Expert-Based Recommendation Framework for beneficial and
personalized content [77.86290991564829]
推奨コンテンツの質を評価するための見習い学習フレームワークであるFEBR(Expert-Based Recommendation Framework)を提案する。
このフレームワークは、推奨評価環境において専門家(信頼できると仮定される)の実証された軌跡を利用して、未知のユーティリティ機能を回復する。
ユーザ関心シミュレーション環境(RecSim)によるソリューションの性能評価を行う。
論文 参考訳(メタデータ) (2021-07-17T18:21:31Z) - Survey for Trust-aware Recommender Systems: A Deep Learning Perspective [48.2733163413522]
信頼できるレコメンデーションシステムを採用することが重要になります。
本調査では,信頼を意識したレコメンデータシステムの3つのカテゴリについて概説する。
論文 参考訳(メタデータ) (2020-04-08T02:11:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。