論文の概要: Zombies in the Loop? Humans Trust Untrustworthy AI-Advisors for Ethical
Decisions
- arxiv url: http://arxiv.org/abs/2106.16122v2
- Date: Tue, 2 Nov 2021 12:27:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 08:01:49.160688
- Title: Zombies in the Loop? Humans Trust Untrustworthy AI-Advisors for Ethical
Decisions
- Title(参考訳): ゾンビのループ?
人間は倫理的判断のために信頼できないAIアドバイザを信頼する
- Authors: Sebastian Kr\"ugel, Andreas Ostermaier, Matthias Uhl
- Abstract要約: AIを利用したアルゴリズムによる倫理的アドバイスは、ユーザーがトレーニングデータについて何も知らない場合でも信頼されている。
我々は、デジタルリテラシーをAIの責任ある使用を確実にするための潜在的対策として提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Departing from the claim that AI needs to be trustworthy, we find that
ethical advice from an AI-powered algorithm is trusted even when its users know
nothing about its training data and when they learn information about it that
warrants distrust. We conducted online experiments where the subjects took the
role of decision-makers who received advice from an algorithm on how to deal
with an ethical dilemma. We manipulated the information about the algorithm and
studied its influence. Our findings suggest that AI is overtrusted rather than
distrusted. We suggest digital literacy as a potential remedy to ensure the
responsible use of AI.
- Abstract(参考訳): AIが信頼できる必要があるという主張とは別に、AIを利用したアルゴリズムによる倫理的アドバイスは、ユーザーがトレーニングデータについて何も知らないときや、不信を保証している情報を知るときでさえ信頼されている。
我々は,倫理的ジレンマに対処するアルゴリズムから助言を受けた意思決定者の役割を,オンライン実験で評価した。
アルゴリズムに関する情報を操作し,その影響を調査した。
我々の発見は、AIは不信ではなく、過度に信頼されていることを示唆している。
我々は、デジタルリテラシーをAIの責任ある使用を確実にするための潜在的対策として提案する。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Humans, AI, and Context: Understanding End-Users' Trust in a Real-World
Computer Vision Application [22.00514030715286]
我々は,現実のコンピュータビジョンアプリケーションの定性的なケーススタディを通じて,AIに対する信頼の包括的でニュアンスな理解を提供する。
参加者はアプリが信頼できると認識し信頼するが、検証行動に関わった後、選択的にアプリアウトプットを受け入れた。
本研究は,AIの信頼性に関する今後の研究への提言として,その意義について論じる。
論文 参考訳(メタデータ) (2023-05-15T12:27:02Z) - Beyond Bias and Compliance: Towards Individual Agency and Plurality of
Ethics in AI [0.0]
データをラベル付けする方法は、AIの振る舞いに不可欠な役割を担っている、と私たちは主張する。
本稿では,複数の値と個々人の表現の自由を許容する代替経路を提案する。
論文 参考訳(メタデータ) (2023-02-23T16:33:40Z) - AI Ethics Issues in Real World: Evidence from AI Incident Database [0.6091702876917279]
インテリジェントなサービスロボット、言語/ビジョンモデル、そして自動運転がリードする、AIの非倫理的利用をよく目にする13のアプリケーション領域を特定します。
倫理的問題は、不適切な使用や人種的差別から、身体的安全と不公平なアルゴリズムまで、8つの異なる形態で現れる。
論文 参考訳(メタデータ) (2022-06-15T16:25:57Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The corruptive force of AI-generated advice [0.0]
AIによるアドバイスが人を傷つけるかどうかをテストします。
また、AIの存在に関する透明性が潜在的な害を軽減するかどうかをテストします。
結果、AIの腐敗力は人間と同じくらい強いことが判明」
論文 参考訳(メタデータ) (2021-02-15T13:15:12Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Could regulating the creators deliver trustworthy AI? [2.588973722689844]
AIは広く普及しており、私たちの知識なしに日々のテクノロジー、デバイス、サービスにデプロイされることが多い。
恐怖は、信頼できるAIの源を指し示すことができないことによって複雑化している。
信頼できるAIは、関連する法律に準拠するものだと考える人もいる。
倫理や基準に従う必要性を指摘する者もいる。
論文 参考訳(メタデータ) (2020-06-26T01:32:53Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。