論文の概要: Algorithmic Transparency with Strategic Users
- arxiv url: http://arxiv.org/abs/2008.09283v1
- Date: Fri, 21 Aug 2020 03:10:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 22:03:08.038854
- Title: Algorithmic Transparency with Strategic Users
- Title(参考訳): 戦略的ユーザによるアルゴリズムの透明性
- Authors: Qiaochu Wang, Yan Huang, Stefanus Jasin, Param Vir Singh
- Abstract要約: 企業がそれを透明化すれば、機械学習アルゴリズムの予測能力も増大する可能性がある。
場合によっては、機械学習アルゴリズムの予測能力さえも、企業がそれを透明にすれば増大する可能性があることを、私たちは示しています。
- 参考スコア(独自算出の注目度): 9.289838852590732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Should firms that apply machine learning algorithms in their decision-making
make their algorithms transparent to the users they affect? Despite growing
calls for algorithmic transparency, most firms have kept their algorithms
opaque, citing potential gaming by users that may negatively affect the
algorithm's predictive power. We develop an analytical model to compare firm
and user surplus with and without algorithmic transparency in the presence of
strategic users and present novel insights. We identify a broad set of
conditions under which making the algorithm transparent benefits the firm. We
show that, in some cases, even the predictive power of machine learning
algorithms may increase if the firm makes them transparent. By contrast, users
may not always be better off under algorithmic transparency. The results hold
even when the predictive power of the opaque algorithm comes largely from
correlational features and the cost for users to improve on them is close to
zero. Overall, our results show that firms should not view manipulation by
users as bad. Rather, they should use algorithmic transparency as a lever to
motivate users to invest in more desirable features.
- Abstract(参考訳): 機械学習アルゴリズムを意思決定に応用した企業は、そのアルゴリズムをユーザーに透明にするべきだろうか?
アルゴリズムの透明性を求める声が増えているにもかかわらず、ほとんどの企業はアルゴリズムを不透明に保ち、アルゴリズムの予測能力に悪影響を及ぼす可能性があるユーザーによる潜在的なゲームを挙げている。
我々は,戦略ユーザの存在下でのアルゴリズム的透明性を保ちながら,強みとユーザの余剰度を比較する分析モデルを構築し,新たな洞察を与える。
アルゴリズムを透明にすることで会社に利益をもたらす、幅広い条件を特定します。
場合によっては、機械学習アルゴリズムの予測能力さえも、企業がそれを透明にすれば増大する可能性がある。
対照的に、ユーザーはアルゴリズムの透明性の下で常に良くなるとは限らない。
結果は、不透明なアルゴリズムの予測能力が相関的な特徴から大きく引き起こされ、ユーザが改善するコストがゼロに近い場合にも成り立つ。
全体的に見ると、企業はユーザーによる操作を悪いことと見なすべきではない。
むしろ、アルゴリズムの透明性をレバーとして利用して、ユーザーがより望ましい機能に投資する動機を与えるべきだ。
関連論文リスト
- Measuring Strategization in Recommendation: Users Adapt Their Behavior to Shape Future Content [66.71102704873185]
実験と調査を行うことで,ユーザストラテジゼーションの試行を行う。
参加者の居住時間や「いいね!」の使用など,結果指標間での戦略化の強い証拠を見出す。
この結果から,プラットフォームはアルゴリズムがユーザの行動に与える影響を無視できないことが示唆された。
論文 参考訳(メタデータ) (2024-05-09T07:36:08Z) - Reputational Algorithm Aversion [0.0]
本稿では,アルゴリズムに従う選択が人間の能力に関する情報を伝達するときに,アルゴリズムの逆転が生じることを示す。
労働者が自分のプライベート情報とアルゴリズムの信号に基づいて不確実な結果を予測するモデルを開発する。
論文 参考訳(メタデータ) (2024-02-23T16:28:55Z) - User Strategization and Trustworthy Algorithms [81.82279667028423]
ユーザストラテジゼーションがプラットフォームを短期間で支援できることが示されています。
そして、それがプラットフォームのデータを破壊し、最終的に反実的な決定を下す能力を損なうことを示します。
論文 参考訳(メタデータ) (2023-12-29T16:09:42Z) - Algorithmic Transparency and Manipulation [0.0]
最近の一連の論文は、アルゴリズムの透明性の操作可能性に関する懸念を提起している。
本稿では、脆弱性の観点よりも優れた操作の無関心な視点に注意を向ける。
論文 参考訳(メタデータ) (2023-11-22T10:09:06Z) - Influence of the algorithm's reliability and transparency in the user's
decision-making process [0.0]
我々は61人の参加者とともにオンライン実験を行い、アルゴリズムの透明性と信頼性の変化がユーザーの意思決定プロセスにどのように影響するかを調べる。
その結果,信頼性が悪くても,アルゴリズムの判断にある程度の信頼感が示されることがわかった。
論文 参考訳(メタデータ) (2023-07-13T03:13:49Z) - Rethinking People Analytics With Inverse Transparency by Design [57.67333075002697]
我々は、デザインによる逆透過性(inverse transparency)と呼ぶ、労働分析のための新しい設計手法を提案する。
アーキテクチャの変更はコア機能を阻害することなく行われます。
我々は、デザインによる逆透明性は、受け入れられ、責任ある人々の分析を実現するための有望なアプローチである、と結論付けている。
論文 参考訳(メタデータ) (2023-05-16T21:37:35Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - FAIRLEARN:Configurable and Interpretable Algorithmic Fairness [1.2183405753834557]
トレーニングサンプルから生じるバイアスや、データサンプルに関する暗黙の仮定を緩和する必要がある。
最適化の異なる段階でバイアスを検出し緩和することで、学習アルゴリズムを公平にするために多くのアプローチが提案されている。
本稿では,ユーザの制約を最適化手順に組み込むことで,公平なアルゴリズムを生成するFAIRLEARN手順を提案する。
論文 参考訳(メタデータ) (2021-11-17T03:07:18Z) - Double Coverage with Machine-Learned Advice [100.23487145400833]
オンラインの基本的な$k$-serverの問題を学習強化環境で研究する。
我々のアルゴリズムは任意の k に対してほぼ最適の一貫性-破壊性トレードオフを達成することを示す。
論文 参考訳(メタデータ) (2021-03-02T11:04:33Z) - Greedy Algorithm almost Dominates in Smoothed Contextual Bandits [100.09904315064372]
オンライン学習アルゴリズムは探索と搾取のバランスをとる必要がある。
欲求的アプローチは、他のアルゴリズムのベイズ的後悔率とほぼ一致していることを示す。
論文 参考訳(メタデータ) (2020-05-19T18:11:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。