論文の概要: Adopting AI: How Familiarity Breeds Both Trust and Contempt
- arxiv url: http://arxiv.org/abs/2305.01405v1
- Date: Tue, 2 May 2023 13:26:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-03 14:27:57.593172
- Title: Adopting AI: How Familiarity Breeds Both Trust and Contempt
- Title(参考訳): AIの採用: Familiarityが信頼と軽蔑の両方を育む方法
- Authors: Michael C. Horowitz, Lauren Kahn, Julia Macdonald, Jacquelyn Schneider
- Abstract要約: 我々は、車、手術、武器、サイバー防衛の4種類の自律技術の使用について検討する。
AIに精通している人や専門知識のある人は、私たちがテストしたすべての自律的アプリケーションをサポートする傾向がありました。
個人は、自分の生活に直接適用した場合、AI対応技術をサポートする可能性も低い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite pronouncements about the inevitable diffusion of artificial
intelligence and autonomous technologies, in practice it is human behavior, not
technology in a vacuum, that dictates how technology seeps into -- and changes
-- societies. In order to better understand how human preferences shape
technological adoption and the spread of AI-enabled autonomous technologies, we
look at representative adult samples of US public opinion in 2018 and 2020 on
the use of four types of autonomous technologies: vehicles, surgery, weapons,
and cyber defense. By focusing on these four diverse uses of AI-enabled
autonomy that span transportation, medicine, and national security, we exploit
the inherent variation between these AI-enabled autonomous use cases. We find
that those with familiarity and expertise with AI and similar technologies were
more likely to support all of the autonomous applications we tested (except
weapons) than those with a limited understanding of the technology. Individuals
that had already delegated the act of driving by using ride-share apps were
also more positive about autonomous vehicles. However, familiarity cut both
ways; individuals are also less likely to support AI-enabled technologies when
applied directly to their life, especially if technology automates tasks they
are already familiar with operating. Finally, opposition to AI-enabled military
applications has slightly increased over time.
- Abstract(参考訳): 人工知能と自律技術が必然的に拡散しているにもかかわらず、実際にはそれは人間の行動であり、真空中の技術ではなく、テクノロジーがどのように社会に浸透し、変化するかを規定している。
人間の嗜好がどのように技術採用を形作るのか、そしてAI対応の自律技術の普及をより深く理解するために、2018年と2020年の米国世論の代表的成人のサンプルを見て、車、手術、武器、サイバー防衛の4種類の自律技術の使用について検討する。
輸送、医療、国家安全保障にまたがるこれら4つのAI対応自律性の利用に焦点を当てることで、これらのAI対応自律型ユースケースの固有のバリエーションを活用する。
AIやその他の技術に精通し、専門知識を持っている人は、その技術について限られた知識を持つ人よりも、私たちがテストした(武器を除く)自律的なアプリケーションすべてをサポートする傾向にある。
すでに配車アプリを使って運転を委任していた個人も、自動運転車に肯定的だった。
しかし、親しみやすさは両方の道を切り離し、特にテクノロジーが既に運用に精通しているタスクを自動化する場合、個人はAI対応技術をサポートできない。
最後に、AI対応の軍事アプリケーションに対する反対は、時間とともにわずかに増加している。
関連論文リスト
- AI Generations: From AI 1.0 to AI 4.0 [3.4440023363051266]
本稿では,人工知能(AI)が複数の世代にまたがって進化していくことを提案する。
これらのAI世代は、アルゴリズム、計算能力、データ間の優先順位のシフトによって駆動される。
人工知能が人間のような自律性に近づいた(あるいはそうしようとする)ときに生じる、深い倫理的、規制的、哲学的な課題を探求する。
論文 参考訳(メタデータ) (2025-02-16T23:19:44Z) - Shaping AI's Impact on Billions of Lives [27.78474296888659]
我々は、AI実践者のコミュニティが、共通の善のために意識的に、積極的に働くことを主張する。
本稿は、新しいタイプのイノベーション基盤の青写真を提供する。
論文 参考訳(メタデータ) (2024-12-03T16:29:37Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
近年のAIの進歩は、科学的発見と意思決定支援において人間を支援できる技術をもたらしたが、民主主義と個人を妨害する可能性がある。
AIの責任ある使用は、ますます人間とAIのチームの必要性を示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - A Technological Perspective on Misuse of Available AI [41.94295877935867]
民間人工知能(AI)の悪意ある誤用は、国家や国際レベルでのセキュリティに深刻な脅威をもたらす可能性がある。
既存のオープンなAI技術が、いかに誤用されているかを示します。
我々は、政治的、デジタル的、物理的セキュリティを脅かす、潜在的に誤用されたAIの典型的なユースケースを3つ開発する。
論文 参考訳(メタデータ) (2024-03-22T16:30:58Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - On the Influence of Explainable AI on Automation Bias [0.0]
我々は、説明可能なAI(XAI)によって自動化バイアスに影響を与える可能性に光を当てることを目指している。
ホテルのレビュー分類に関するオンライン実験を行い、最初の結果について議論する。
論文 参考訳(メタデータ) (2022-04-19T12:54:23Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Toward a Rational and Ethical Sociotechnical System of Autonomous
Vehicles: A Novel Application of Multi-Criteria Decision Analysis [0.0]
人工知能(AI)と自律システムの拡張は、膨大な社会的利益を生み出す可能性を示している。
知的エージェントのシステム開発を可能にするために、関連する社会的懸念に対処する必要がある。
論文 参考訳(メタデータ) (2021-02-04T23:52:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。