論文の概要: Taking Advice from (Dis)Similar Machines: The Impact of Human-Machine
Similarity on Machine-Assisted Decision-Making
- arxiv url: http://arxiv.org/abs/2209.03821v1
- Date: Thu, 8 Sep 2022 13:50:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:02:28.855771
- Title: Taking Advice from (Dis)Similar Machines: The Impact of Human-Machine
Similarity on Machine-Assisted Decision-Making
- Title(参考訳): Dis-Similar Machinesからのアドバイス:マシンアシスト意思決定における人間と機械の類似性の影響
- Authors: Nina Grgi\'c-Hla\v{c}a, Claude Castelluccia, Krishna P. Gummadi
- Abstract要約: 本研究では,人間と機械のエラーの類似性が,アルゴリズムによる意思決定支援に対する人間の認識と相互作用に与える影響について検討する。
i)人々は、(i)より類似した意思決定支援をより有用で、正確で、予測可能であると認識し、(ii)人々は、より類似した意思決定支援からの反対のアドバイスを受ける傾向にある。
- 参考スコア(独自算出の注目度): 11.143223527623821
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning algorithms are increasingly used to assist human
decision-making. When the goal of machine assistance is to improve the accuracy
of human decisions, it might seem appealing to design ML algorithms that
complement human knowledge. While neither the algorithm nor the human are
perfectly accurate, one could expect that their complementary expertise might
lead to improved outcomes. In this study, we demonstrate that in practice
decision aids that are not complementary, but make errors similar to human ones
may have their own benefits.
In a series of human-subject experiments with a total of 901 participants, we
study how the similarity of human and machine errors influences human
perceptions of and interactions with algorithmic decision aids. We find that
(i) people perceive more similar decision aids as more useful, accurate, and
predictable, and that (ii) people are more likely to take opposing advice from
more similar decision aids, while (iii) decision aids that are less similar to
humans have more opportunities to provide opposing advice, resulting in a
higher influence on people's decisions overall.
- Abstract(参考訳): 機械学習アルゴリズムは、人間の意思決定を支援するためにますます使われている。
マシンアシストの目標は、人間の意思決定の正確性を改善することにあるが、人間の知識を補完するMLアルゴリズムの設計は魅力的であるように思える。
アルゴリズムも人間も完全に正確ではないが、補完的な専門知識がより良い結果をもたらすと期待できる。
本研究では,人間に類似した誤りを生じさせるような意思決定支援が,自己の利益をもたらす可能性があることを実証する。
実験では,人間と機械のミスの類似性が,人間の認識やアルゴリズム的意思決定支援システムとの相互作用に与える影響について検討した。
私たちはそれを見つけ
一 より有用な、正確かつ予測可能な、より類似した意思決定支援を知覚する者
(ii)より類似した意思決定支援から反対のアドバイスを受ける傾向が強い一方
(iii)人間とあまり似ていない意思決定補助は、反対のアドバイスを提供する機会が増え、その結果、全体の人々の決定に影響を及ぼす。
関連論文リスト
- Utilizing Human Behavior Modeling to Manipulate Explanations in AI-Assisted Decision Making: The Good, the Bad, and the Scary [19.884253335528317]
AIモデルの最近の進歩は、人間の意思決定プロセスへのAIベースの意思決定支援の統合を高めている。
AIによる意思決定の可能性を完全に解き放つために、研究者たちは、人間がAIレコメンデーションを最終決定にどのように組み込むかをコンピュータでモデル化した。
より適切にAIレコメンデーションに頼れるように、人間の意思決定者にAIの説明を提供することは、一般的な慣習となっている。
論文 参考訳(メタデータ) (2024-11-02T18:33:28Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Does AI help humans make better decisions? A statistical evaluation framework for experimental and observational studies [0.43981305860983716]
我々は、人間とAI、AIの3つの代替意思決定システムのパフォーマンスを比較する方法を示す。
リスクアセスメントの勧告は、現金保釈を課す裁判官の決定の分類精度を向上しないことがわかった。
論文 参考訳(メタデータ) (2024-03-18T01:04:52Z) - Decoding AI's Nudge: A Unified Framework to Predict Human Behavior in
AI-assisted Decision Making [24.258056813524167]
本稿では,AI支援の様々な形態が意思決定者に与える影響を解釈できる計算フレームワークを提案する。
人間の意思決定プロセスにおけるAIアシストを「エマード」として概念化することで、私たちのアプローチは、異なる形のAIアシストが人間の戦略をどのように修正するかをモデル化することに集中します。
論文 参考訳(メタデータ) (2024-01-11T11:22:36Z) - The Impact of Imperfect XAI on Human-AI Decision-Making [8.305869611846775]
鳥種識別作業において,誤った説明が人間の意思決定行動にどのように影響するかを評価する。
この結果から,AIと人間-AIチームパフォーマンスへの不完全なXAIと,人間の専門知識レベルの影響が明らかになった。
論文 参考訳(メタデータ) (2023-07-25T15:19:36Z) - Doubting AI Predictions: Influence-Driven Second Opinion Recommendation [92.30805227803688]
我々は,補完的な意見を提供する可能性のある専門家を識別する,共通の組織的実践に基づいて,人間とAIのコラボレーションを強化する方法を提案する。
提案手法は、一部の専門家がアルゴリズムによる評価に異を唱えるかどうかを特定することによって、生産的な不一致を活用することを目的としている。
論文 参考訳(メタデータ) (2022-04-29T20:35:07Z) - Deciding Fast and Slow: The Role of Cognitive Biases in AI-assisted
Decision-making [46.625616262738404]
我々は、認知科学の分野からの知識を用いて、人間とAIの協調的な意思決定設定における認知バイアスを考慮します。
私たちは、人間とAIのコラボレーションでよく見られるバイアスであるバイアスのアンカーに特に焦点を当てています。
論文 参考訳(メタデータ) (2020-10-15T22:25:41Z) - Learning to Complement Humans [67.38348247794949]
オープンワールドにおけるAIに対するビジョンの高まりは、知覚、診断、推論タスクのために人間を補完できるシステムの開発に焦点を当てている。
我々は,人間-機械チームの複合的なパフォーマンスを最適化するために,エンド・ツー・エンドの学習戦略をどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2020-05-01T20:00:23Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。