論文の概要: Algorithmic risk assessments can alter human decision-making processes
in high-stakes government contexts
- arxiv url: http://arxiv.org/abs/2012.05370v1
- Date: Wed, 9 Dec 2020 23:44:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 01:55:41.390017
- Title: Algorithmic risk assessments can alter human decision-making processes
in high-stakes government contexts
- Title(参考訳): アルゴリズムによるリスク評価は、高い状況下での人間の意思決定プロセスを変える
- Authors: Ben Green, Yiling Chen
- Abstract要約: リスクアセスメントは意思決定の要因としてリスクのサリエンスを高めることで意思決定プロセスを変え、これらの変化が人種格差を悪化させる可能性があることを示す。
これらの結果から,アルゴリズムによる予測精度の向上は必ずしも人間の意思決定を改善するものではないことを示し,意思決定者による政府アルゴリズムの使用方法を実験的に検証する必要性を強調した。
- 参考スコア(独自算出の注目度): 19.265010348250897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Governments are increasingly turning to algorithmic risk assessments when
making important decisions, believing that these algorithms will improve public
servants' ability to make policy-relevant predictions and thereby lead to more
informed decisions. Yet because many policy decisions require balancing
risk-minimization with competing social goals, evaluating the impacts of risk
assessments requires considering how public servants are influenced by risk
assessments when making policy decisions rather than just how accurately these
algorithms make predictions. Through an online experiment with 2,140 lay
participants simulating two high-stakes government contexts, we provide the
first large-scale evidence that risk assessments can systematically alter
decision-making processes by increasing the salience of risk as a factor in
decisions and that these shifts could exacerbate racial disparities. These
results demonstrate that improving human prediction accuracy with algorithms
does not necessarily improve human decisions and highlight the need to
experimentally test how government algorithms are used by human
decision-makers.
- Abstract(参考訳): 政府は、重要な決定を行う際にアルゴリズムによるリスクアセスメントに目を向け、これらのアルゴリズムが公務員の政策関連予測能力を向上させ、それによってよりインフォームドな決定につながると信じている。
しかし、多くの政策決定は、競合する社会的目標とリスク最小化のバランスをとる必要があるため、リスクアセスメントの影響を評価するには、これらのアルゴリズムがいかに正確に予測するよりも、政策決定を行う際に、公務員がどのようにリスク評価に影響されるかを考慮する必要がある。
2,140名からなるオンライン実験を通じて,リスクアセスメントが意思決定の要因としてリスクの塩分を増加させ,これらの変化が人種格差を悪化させる可能性があることを示す,最初の大規模証拠を提供する。
これらの結果から,アルゴリズムによる予測精度の向上は必ずしも人間の意思決定を改善するものではないことを示し,意思決定者による政府アルゴリズムの使用方法を実験的に検証する必要性を強調した。
関連論文リスト
- ABI Approach: Automatic Bias Identification in Decision-Making Under Risk based in an Ontology of Behavioral Economics [46.57327530703435]
損失回避のようなバイアスによって引き起こされる損失に対する優先順位を求めるリスクは、課題を引き起こし、深刻なネガティブな結果をもたらす可能性がある。
本研究は,リスクサーチの選好を自動的に識別し,説明することにより,組織意思決定者を支援する新しいソリューションであるABIアプローチを紹介する。
論文 参考訳(メタデータ) (2024-05-22T23:53:46Z) - Reduced-Rank Multi-objective Policy Learning and Optimization [57.978477569678844]
実際には、因果研究者は先験を念頭において1つの結果を持っていない。
政府支援の社会福祉プログラムでは、政策立案者は貧困の多次元的性質を理解するために多くの成果を集めている。
本稿では、最適政策学習の文脈において、複数の結果に対するデータ駆動型次元性推論手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T08:16:30Z) - Conformal Decision Theory: Safe Autonomous Decisions from Imperfect Predictions [80.34972679938483]
不完全な機械学習予測にも拘わらず、安全な自律的意思決定を実現するためのフレームワークであるコンフォーマル決定理論を導入する。
私たちのアルゴリズムが生み出す決定は、リスクが低いという証明可能な統計的保証があるという意味では安全です。
実験は、人間のまわりのロボットの動き計画、自動株式取引、ロボット製造において、我々のアプローチの有用性を実証する。
論文 参考訳(メタデータ) (2023-10-09T17:59:30Z) - Bayesian Safe Policy Learning with Chance Constrained Optimization: Application to Military Security Assessment during the Vietnam War [0.0]
ベトナム戦争で採用されたセキュリティアセスメントアルゴリズムを改善できるかどうかを検討する。
この経験的応用は、アルゴリズムによる意思決定においてしばしば発生するいくつかの方法論的課題を提起する。
論文 参考訳(メタデータ) (2023-07-17T20:59:50Z) - Influence of the algorithm's reliability and transparency in the user's
decision-making process [0.0]
我々は61人の参加者とともにオンライン実験を行い、アルゴリズムの透明性と信頼性の変化がユーザーの意思決定プロセスにどのように影響するかを調べる。
その結果,信頼性が悪くても,アルゴリズムの判断にある程度の信頼感が示されることがわかった。
論文 参考訳(メタデータ) (2023-07-13T03:13:49Z) - Robust Design and Evaluation of Predictive Algorithms under Unobserved Confounding [2.8498944632323755]
選択的に観測されたデータにおける予測アルゴリズムの頑健な設計と評価のための統一的なフレームワークを提案する。
我々は、選択されていないユニットと選択されたユニットの間で、平均して結果がどの程度異なるかという一般的な仮定を課す。
我々は,大規模な予測性能推定値のクラスにおける境界値に対するバイアス付き機械学習推定器を開発する。
論文 参考訳(メタデータ) (2022-12-19T20:41:44Z) - Algorithmic Assistance with Recommendation-Dependent Preferences [2.864550757598007]
選択に影響を及ぼすアルゴリズムレコメンデーションの効果と設計について考察する。
我々は、レコメンデーションに依存した選好が、意思決定者がレコメンデーションに過度に反応する非効率性を生み出すことを示す。
論文 参考訳(メタデータ) (2022-08-16T09:24:47Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - The Impact of Algorithmic Risk Assessments on Human Predictions and its
Analysis via Crowdsourcing Studies [79.66833203975729]
我々は,在職者が将来の再起を予測することを任務とするヴィグネット研究を行う。
参加者は、再逮捕の確率が50%よりかなり低いと判断しても、犯罪者が再逮捕されることをしばしば予測します。
裁判官の判断は、参加者の予測とは異なり、部分的には再逮捕の可能性がある要因に依存する。
論文 参考訳(メタデータ) (2021-09-03T11:09:10Z) - Experimental Evaluation of Algorithm-Assisted Human Decision-Making:
Application to Pretrial Public Safety Assessment [0.8749675983608171]
本研究では,人的決定に対するアルゴリズムレコメンデーションの因果的影響を実験的に評価するための統計的方法論を開発する。
提案手法を第1回ランダム化制御試験の予備データに適用する。
PSAを裁判官に提供することは、裁判官の決定とその後の逮捕者行動に全体的な影響はほとんどない。
論文 参考訳(メタデータ) (2020-12-04T20:48:44Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。