論文の概要: Can Probabilistic Feedback Drive User Impacts in Online Platforms?
- arxiv url: http://arxiv.org/abs/2401.05304v2
- Date: Thu, 25 Jan 2024 05:14:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 17:13:12.682226
- Title: Can Probabilistic Feedback Drive User Impacts in Online Platforms?
- Title(参考訳): オンラインプラットフォームにおける確率的フィードバック駆動のユーザへの影響
- Authors: Jessica Dai, Bailey Flanigan, Nika Haghtalab, Meena Jagadeesan, Chara
Podimata
- Abstract要約: コンテンツレコメンデーションシステムのネガティブなユーザへの影響に関する一般的な説明は、プラットフォームの目的とユーザ福祉の相違である。
本研究は,ユーザに対する意図しない影響の潜在的な原因は,プラットフォーム目標の不一致だけではないことを示す。
これらのユーザーへの影響の源泉は、異なるコンテンツが観測可能なユーザー反応(フィードバック情報)を異なるレートで生成する可能性があることである。
- 参考スコア(独自算出の注目度): 26.052963782865294
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A common explanation for negative user impacts of content recommender systems
is misalignment between the platform's objective and user welfare. In this
work, we show that misalignment in the platform's objective is not the only
potential cause of unintended impacts on users: even when the platform's
objective is fully aligned with user welfare, the platform's learning algorithm
can induce negative downstream impacts on users. The source of these user
impacts is that different pieces of content may generate observable user
reactions (feedback information) at different rates; these feedback rates may
correlate with content properties, such as controversiality or demographic
similarity of the creator, that affect the user experience. Since differences
in feedback rates can impact how often the learning algorithm engages with
different content, the learning algorithm may inadvertently promote content
with certain such properties. Using the multi-armed bandit framework with
probabilistic feedback, we examine the relationship between feedback rates and
a learning algorithm's engagement with individual arms for different no-regret
algorithms. We prove that no-regret algorithms can exhibit a wide range of
dependencies: if the feedback rate of an arm increases, some no-regret
algorithms engage with the arm more, some no-regret algorithms engage with the
arm less, and other no-regret algorithms engage with the arm approximately the
same number of times. From a platform design perspective, our results highlight
the importance of looking beyond regret when measuring an algorithm's
performance, and assessing the nature of a learning algorithm's engagement with
different types of content as well as their resulting downstream impacts.
- Abstract(参考訳): コンテンツレコメンデーションシステムのネガティブなユーザへの影響に関する一般的な説明は、プラットフォームの目的とユーザ福祉の相違である。
本研究は,ユーザに対する意図しない影響の潜在的な原因は,プラットフォームの目的がユーザ福祉と完全に整合している場合でも,プラットフォームの学習アルゴリズムがユーザに対するネガティブなダウンストリームの影響を誘発できることを示す。
これらのユーザへの影響の原因は、異なるコンテンツが異なるレートで観察可能なユーザリアクション(フィードバック情報)を生成する可能性があることである。
フィードバック率の違いは、学習アルゴリズムが異なるコンテンツにどの程度の頻度で関わるかに影響を与える可能性があるため、学習アルゴリズムは必然的にそのような特性を持つコンテンツを促進することができる。
確率的フィードバックを伴うマルチアームバンディットフレームワークを用いて,フィードバック率と学習アルゴリズムの個々のアームへの関与との関係を,異なる非回帰アルゴリズムを用いて検討する。
例えば、armのフィードバック率が向上し、いくつかのno-regretアルゴリズムがarmにもっと関与し、いくつかのno-regretアルゴリズムがarmに関わりにくくなり、他のno-regretアルゴリズムがarmにほぼ同じ回数関わる。
プラットフォーム設計の観点からは,アルゴリズムのパフォーマンスを測る上で,後悔以上のものを見ることの重要性を強調し,学習アルゴリズムのさまざまなタイプのコンテンツへのエンゲージメントと結果の下流への影響を評価する。
関連論文リスト
- Interactive Counterfactual Exploration of Algorithmic Harms in Recommender Systems [3.990406494980651]
本研究では,レコメンデーションシステムにおけるアルゴリズム的害の影響を理解し,探索するための対話型ツールを提案する。
視覚化、反事実的説明、インタラクティブなモジュールを活用することで、ユーザは誤校正などのバイアスがレコメンデーションにどのように影響するかを調査できる。
論文 参考訳(メタデータ) (2024-09-10T23:58:27Z) - Measuring Strategization in Recommendation: Users Adapt Their Behavior to Shape Future Content [66.71102704873185]
実験と調査を行うことで,ユーザストラテジゼーションの試行を行う。
参加者の居住時間や「いいね!」の使用など,結果指標間での戦略化の強い証拠を見出す。
この結果から,プラットフォームはアルゴリズムがユーザの行動に与える影響を無視できないことが示唆された。
論文 参考訳(メタデータ) (2024-05-09T07:36:08Z) - User Strategization and Trustworthy Algorithms [81.82279667028423]
ユーザストラテジゼーションがプラットフォームを短期間で支援できることが示されています。
そして、それがプラットフォームのデータを破壊し、最終的に反実的な決定を下す能力を損なうことを示します。
論文 参考訳(メタデータ) (2023-12-29T16:09:42Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Modeling Content Creator Incentives on Algorithm-Curated Platforms [76.53541575455978]
本研究では,アルゴリズムの選択が露出ゲームにおける(ナッシュ)平衡の存在と性格にどのように影響するかを検討する。
本研究では、露出ゲームにおける平衡を数値的に見つけるためのツールを提案し、MovieLensとLastFMデータセットの監査結果を示す。
論文 参考訳(メタデータ) (2022-06-27T08:16:59Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Interpretable Assessment of Fairness During Model Evaluation [1.2183405753834562]
本稿では,階層的クラスタリングアルゴリズムを導入し,各サブ集団におけるユーザ間の不均一性を検出する。
本稿では,LinkedInの実際のデータに対して,アルゴリズムの性能を示す。
論文 参考訳(メタデータ) (2020-10-26T02:31:17Z) - Examining the Impact of Algorithm Awareness on Wikidata's Recommender
System Recoin [12.167153941840958]
Wikidata のガジェットである Recoin のレコメンデータシステムとして MTurk を用いた 105 人の参加者によるオンライン実験を行った。
私たちの発見は、インタラクティブな再設計において、アルゴリズムシステムにおける理解と信頼の正の相関を含む。
以上の結果から,アルゴリズム認識の実証研究において,理解,公正性,正確性,信頼の尺度がまだ徹底していないことが示唆された。
論文 参考訳(メタデータ) (2020-09-18T20:06:53Z) - Partial Bandit and Semi-Bandit: Making the Most Out of Scarce Users'
Feedback [62.997667081978825]
本稿では,ユーザのフィードバックを考慮し,3つの戦略を用いて評価する手法を提案する。
ユーザからのフィードバックが制限されているにも関わらず(全体の20%以下)、我々の手法は最先端のアプローチと同じような結果が得られる。
論文 参考訳(メタデータ) (2020-09-16T07:32:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。