論文の概要: Algorithmic Assistance with Recommendation-Dependent Preferences
- arxiv url: http://arxiv.org/abs/2208.07626v3
- Date: Fri, 19 Jan 2024 16:52:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 19:54:52.770860
- Title: Algorithmic Assistance with Recommendation-Dependent Preferences
- Title(参考訳): Recommendation-Dependent Preferenceによるアルゴリズム支援
- Authors: Bryce McLaughlin and Jann Spiess
- Abstract要約: 選択に影響を及ぼすアルゴリズムレコメンデーションの効果と設計について考察する。
我々は、レコメンデーションに依存した選好が、意思決定者がレコメンデーションに過度に反応する非効率性を生み出すことを示す。
- 参考スコア(独自算出の注目度): 2.864550757598007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When an algorithm provides risk assessments, we typically think of them as
helpful inputs to human decisions, such as when risk scores are presented to
judges or doctors. However, a decision-maker may not only react to the
information provided by the algorithm. The decision-maker may also view the
algorithmic recommendation as a default action, making it costly for them to
deviate, such as when a judge is reluctant to overrule a high-risk assessment
for a defendant or a doctor fears the consequences of deviating from
recommended procedures. To address such unintended consequences of algorithmic
assistance, we propose a principal-agent model of joint human-machine
decision-making. Within this model, we consider the effect and design of
algorithmic recommendations when they affect choices not just by shifting
beliefs, but also by altering preferences. We motivate this assumption from
institutional factors, such as a desire to avoid audits, as well as from
well-established models in behavioral science that predict loss aversion
relative to a reference point, which here is set by the algorithm. We show that
recommendation-dependent preferences create inefficiencies where the
decision-maker is overly responsive to the recommendation. As a potential
remedy, we discuss algorithms that strategically withhold recommendations, and
show how they can improve the quality of final decisions.
- Abstract(参考訳): アルゴリズムがリスクアセスメントを提供する場合、一般的には、リスクスコアが審査員や医師に提示される場合など、人間の判断に有用なインプットであるとみなす。
しかし、意思決定者はアルゴリズムが提供する情報に反応するわけではない。
意思決定者は、アルゴリズムによる推奨をデフォルトの行為と見なすことができ、裁判官が被告に対するリスクの高い評価を覆すのを嫌う場合や、医者が推奨された手続から逸脱する結果を恐れる場合など、逸脱するコストがかかる。
アルゴリズム支援の意図しない結果に対処するために,人間と機械の協調意思決定のプリンシパルエージェントモデルを提案する。
本モデルでは,信念を変えるだけでなく,好みを変えることによって選択に影響を与えるアルゴリズムレコメンデーションの効果と設計を検討する。
我々は、監査を避けたいという願望のような機関的要因や、このアルゴリズムが設定する参照点に対する損失回避を予測する行動科学の確立されたモデルから、この仮定を動機付けている。
推薦依存の選好は、意思決定者が推薦に過度に反応する非効率性を生み出す。
潜在的な救済策として、戦略的に推奨を控えたアルゴリズムを議論し、最終決定の質をいかに改善できるかを示す。
関連論文リスト
- Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Decision-aid or Controller? Steering Human Decision Makers with
Algorithms [5.449173263947196]
人間の意思決定者について学習し、最終決定に影響を与えるために「個人化された推薦」を提供する意思決定支援アルゴリズムについて検討する。
このようなアルゴリズムの潜在的な応用とその社会的意味について論じる。
論文 参考訳(メタデータ) (2023-03-23T23:24:26Z) - Robust Design and Evaluation of Predictive Algorithms under Unobserved
Confounding [3.1133049660590615]
本稿では,選択的に観測されたデータにおける予測アルゴリズムの頑健な設計と評価のための統一手法を提案する。
提案手法は, 選択されていない単位と選択された単位の平均値によって, 結果がどの程度異なるか, という一般的な仮定を与える。
観測不能な共起に関する様々な仮定が、デフォルトリスク予測や、センシティブなグループ間での信用スコアの評価に有意義な変化をもたらすことを示す。
論文 参考訳(メタデータ) (2022-12-19T20:41:44Z) - Doubting AI Predictions: Influence-Driven Second Opinion Recommendation [92.30805227803688]
我々は,補完的な意見を提供する可能性のある専門家を識別する,共通の組織的実践に基づいて,人間とAIのコラボレーションを強化する方法を提案する。
提案手法は、一部の専門家がアルゴリズムによる評価に異を唱えるかどうかを特定することによって、生産的な不一致を活用することを目的としている。
論文 参考訳(メタデータ) (2022-04-29T20:35:07Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Bayesian Persuasion for Algorithmic Recourse [28.586165301962485]
いくつかの状況では、根底にある予測モデルはゲームを避け、競争上の優位性を維持するために意図的に秘密にされている。
我々はベイズ的説得のゲームのような設定を捉え、意思決定者は、例えばアクションレコメンデーションのようなシグナルを、望ましい行動を取るためのインセンティブを与える決定対象に送信する。
本稿では,最適化問題として最適なベイズ的インセンティブ互換(BIC)行動推薦ポリシーを見出すという意思決定者の問題を定式化し,線形プログラムを用いて解を特徴づける。
論文 参考訳(メタデータ) (2021-12-12T17:18:54Z) - Confidence-Budget Matching for Sequential Budgeted Learning [69.77435313099366]
問合せ予算で意思決定問題を定式化する。
我々は,多腕バンディット,線形バンディット,強化学習問題を考察する。
我々は,CBMに基づくアルゴリズムが逆性の存在下で良好に動作することを示す。
論文 参考訳(メタデータ) (2021-02-05T19:56:31Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [89.01584399789951]
歴史的専門家の意思決定を豊富な情報源として利用することを検討します。
観察されたラベルだけで学習する制限を緩和するために活用できることを示しています。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Experimental Evaluation of Algorithm-Assisted Human Decision-Making:
Application to Pretrial Public Safety Assessment [0.8749675983608171]
本研究では,人的決定に対するアルゴリズムレコメンデーションの因果的影響を実験的に評価するための統計的方法論を開発する。
提案手法を第1回ランダム化制御試験の予備データに適用する。
PSAを裁判官に提供することは、裁判官の決定とその後の逮捕者行動に全体的な影響はほとんどない。
論文 参考訳(メタデータ) (2020-12-04T20:48:44Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。