論文の概要: User Strategization and Trustworthy Algorithms
- arxiv url: http://arxiv.org/abs/2312.17666v1
- Date: Fri, 29 Dec 2023 16:09:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-02 09:21:40.239233
- Title: User Strategization and Trustworthy Algorithms
- Title(参考訳): ユーザ戦略と信頼できるアルゴリズム
- Authors: Sarah H. Cen, Andrew Ilyas, Aleksander Madry
- Abstract要約: ユーザストラテジゼーションがプラットフォームを短期間で支援できることが示されています。
そして、それがプラットフォームのデータを破壊し、最終的に反実的な決定を下す能力を損なうことを示します。
- 参考スコア(独自算出の注目度): 81.82279667028423
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many human-facing algorithms -- including those that power recommender
systems or hiring decision tools -- are trained on data provided by their
users. The developers of these algorithms commonly adopt the assumption that
the data generating process is exogenous: that is, how a user reacts to a given
prompt (e.g., a recommendation or hiring suggestion) depends on the prompt and
not on the algorithm that generated it. For example, the assumption that a
person's behavior follows a ground-truth distribution is an exogeneity
assumption. In practice, when algorithms interact with humans, this assumption
rarely holds because users can be strategic. Recent studies document, for
example, TikTok users changing their scrolling behavior after learning that
TikTok uses it to curate their feed, and Uber drivers changing how they accept
and cancel rides in response to changes in Uber's algorithm.
Our work studies the implications of this strategic behavior by modeling the
interactions between a user and their data-driven platform as a repeated,
two-player game. We first find that user strategization can actually help
platforms in the short term. We then show that it corrupts platforms' data and
ultimately hurts their ability to make counterfactual decisions. We connect
this phenomenon to user trust, and show that designing trustworthy algorithms
can go hand in hand with accurate estimation. Finally, we provide a
formalization of trustworthiness that inspires potential interventions.
- Abstract(参考訳): 推薦システムや採用決定ツールなど、多くの人間向けアルゴリズムは、ユーザが提供するデータに基づいて訓練されている。
これらのアルゴリズムの開発者は、データ生成プロセスが外在的であるという仮定を採用する。つまり、ユーザーが与えられたプロンプトにどのように反応するか(例えば、レコメンデーションや採用提案)は、そのプロンプトに依存し、生成したアルゴリズムに依存しない。
例えば、ある人の行動が地対真実分布に従うという仮定は、外生的な仮定である。
実際には、アルゴリズムが人間と対話する場合、この仮定はユーザーが戦略的であることから、ほとんど成り立たない。
例えば最近の研究文書では、tiktokユーザーはtiktokがフィードのキュレーションに使っていることを知った後にスクロールの振る舞いを変更し、uberのドライバーはuberのアルゴリズムの変更に応じて乗車の受け入れとキャンセルの仕方を変えている。
本研究は,ユーザとデータ駆動型プラットフォーム間のインタラクションを,反復的な2人プレイゲームとしてモデル化することで,この戦略的行動の意義を考察する。
まず最初に、ユーザストラテジフィケーションが短期的にプラットフォームに役立つことが分かりました。
そして、それがプラットフォームのデータを破壊し、最終的に反実的な決定をする能力を損なうことを示します。
この現象をユーザの信頼と結びつけて,信頼に値するアルゴリズムを設計することで,正確な推定を行うことができることを示す。
最後に、潜在的介入を促す信頼の形式化を提供します。
関連論文リスト
- Algorithmic Drift: A Simulation Framework to Study the Effects of Recommender Systems on User Preferences [7.552217586057245]
本稿では,長期シナリオにおけるユーザ-リコメンダ間のインタラクションを模倣するシミュレーションフレームワークを提案する。
本稿では,ユーザの嗜好に対するアルゴリズムの影響を定量化する2つの新しい指標について紹介する。
論文 参考訳(メタデータ) (2024-09-24T21:54:22Z) - Measuring Strategization in Recommendation: Users Adapt Their Behavior to Shape Future Content [66.71102704873185]
実験と調査を行うことで,ユーザストラテジゼーションの試行を行う。
参加者の居住時間や「いいね!」の使用など,結果指標間での戦略化の強い証拠を見出す。
この結果から,プラットフォームはアルゴリズムがユーザの行動に与える影響を無視できないことが示唆された。
論文 参考訳(メタデータ) (2024-05-09T07:36:08Z) - Learnability Gaps of Strategic Classification [68.726857356532]
我々は,戦略的分類と標準学習の間にある学習可能性のギャップという,根本的な問題に対処することに注力する。
ほぼ厳密なサンプルの複雑さと後悔の限界を提供し、以前の結果よりも大幅に改善します。
この設定における我々のアルゴリズムは、独立して興味を持ち、マルチラベル学習のような他の問題にも適用できる。
論文 参考訳(メタデータ) (2024-02-29T16:09:19Z) - Exploring Gender Disparities in Bumble's Match Recommendations [0.27309692684728604]
インドにおけるオンラインデートプラットフォームであるBumbleの文脈において、偏見と差別について研究している。
我々は,Bumbleがユーザにプッシュするアルゴリズムにおいて,バイアスの存在を特定し,対処する実験を行う。
論文 参考訳(メタデータ) (2023-12-15T09:09:42Z) - Rethinking People Analytics With Inverse Transparency by Design [57.67333075002697]
我々は、デザインによる逆透過性(inverse transparency)と呼ぶ、労働分析のための新しい設計手法を提案する。
アーキテクチャの変更はコア機能を阻害することなく行われます。
我々は、デザインによる逆透明性は、受け入れられ、責任ある人々の分析を実現するための有望なアプローチである、と結論付けている。
論文 参考訳(メタデータ) (2023-05-16T21:37:35Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Strategic Representation [20.43010800051863]
戦略マシンは ユーザーを操る表現を作れます
我々はこれを学習問題として定式化し、操作に頑健な意思決定のためのアルゴリズムを追求する。
我々の主な成果は、戦略的表現に拘わらずエラーを最小限に抑える学習アルゴリズムである。
論文 参考訳(メタデータ) (2022-06-17T04:20:57Z) - Sayer: Using Implicit Feedback to Optimize System Policies [63.992191765269396]
我々は、暗黙のフィードバックを活用して、新しいシステムポリシーを評価し、訓練する方法論を開発する。
Sayerは、強化学習の2つのアイデアに基づいて、既存のポリシーで収集されたデータを活用する。
Sayer氏は任意のポリシーを正確に評価し、生産ポリシーを上回るような新しいポリシーをトレーニングできることを示します。
論文 参考訳(メタデータ) (2021-10-28T04:16:56Z) - Learning User Preferences in Non-Stationary Environments [42.785926822853746]
オンラインノンステーショナリーレコメンデーションシステムのための新しいモデルを紹介します。
好みが変化しない場合でも,我々のアルゴリズムが他の静的アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-01-29T10:26:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。