論文の概要: Adopting AI: How Familiarity Breeds Both Trust and Contempt
- arxiv url: http://arxiv.org/abs/2305.01405v1
- Date: Tue, 2 May 2023 13:26:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-03 14:27:57.593172
- Title: Adopting AI: How Familiarity Breeds Both Trust and Contempt
- Title(参考訳): AIの採用: Familiarityが信頼と軽蔑の両方を育む方法
- Authors: Michael C. Horowitz, Lauren Kahn, Julia Macdonald, Jacquelyn Schneider
- Abstract要約: 我々は、車、手術、武器、サイバー防衛の4種類の自律技術の使用について検討する。
AIに精通している人や専門知識のある人は、私たちがテストしたすべての自律的アプリケーションをサポートする傾向がありました。
個人は、自分の生活に直接適用した場合、AI対応技術をサポートする可能性も低い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite pronouncements about the inevitable diffusion of artificial
intelligence and autonomous technologies, in practice it is human behavior, not
technology in a vacuum, that dictates how technology seeps into -- and changes
-- societies. In order to better understand how human preferences shape
technological adoption and the spread of AI-enabled autonomous technologies, we
look at representative adult samples of US public opinion in 2018 and 2020 on
the use of four types of autonomous technologies: vehicles, surgery, weapons,
and cyber defense. By focusing on these four diverse uses of AI-enabled
autonomy that span transportation, medicine, and national security, we exploit
the inherent variation between these AI-enabled autonomous use cases. We find
that those with familiarity and expertise with AI and similar technologies were
more likely to support all of the autonomous applications we tested (except
weapons) than those with a limited understanding of the technology. Individuals
that had already delegated the act of driving by using ride-share apps were
also more positive about autonomous vehicles. However, familiarity cut both
ways; individuals are also less likely to support AI-enabled technologies when
applied directly to their life, especially if technology automates tasks they
are already familiar with operating. Finally, opposition to AI-enabled military
applications has slightly increased over time.
- Abstract(参考訳): 人工知能と自律技術が必然的に拡散しているにもかかわらず、実際にはそれは人間の行動であり、真空中の技術ではなく、テクノロジーがどのように社会に浸透し、変化するかを規定している。
人間の嗜好がどのように技術採用を形作るのか、そしてAI対応の自律技術の普及をより深く理解するために、2018年と2020年の米国世論の代表的成人のサンプルを見て、車、手術、武器、サイバー防衛の4種類の自律技術の使用について検討する。
輸送、医療、国家安全保障にまたがるこれら4つのAI対応自律性の利用に焦点を当てることで、これらのAI対応自律型ユースケースの固有のバリエーションを活用する。
AIやその他の技術に精通し、専門知識を持っている人は、その技術について限られた知識を持つ人よりも、私たちがテストした(武器を除く)自律的なアプリケーションすべてをサポートする傾向にある。
すでに配車アプリを使って運転を委任していた個人も、自動運転車に肯定的だった。
しかし、親しみやすさは両方の道を切り離し、特にテクノロジーが既に運用に精通しているタスクを自動化する場合、個人はAI対応技術をサポートできない。
最後に、AI対応の軍事アプリケーションに対する反対は、時間とともにわずかに増加している。
関連論文リスト
- A Technological Perspective on Misuse of Available AI [41.94295877935867]
民間人工知能(AI)の悪意ある誤用は、国家や国際レベルでのセキュリティに深刻な脅威をもたらす可能性がある。
既存のオープンなAI技術が、いかに誤用されているかを示します。
我々は、政治的、デジタル的、物理的セキュリティを脅かす、潜在的に誤用されたAIの典型的なユースケースを3つ開発する。
論文 参考訳(メタデータ) (2024-03-22T16:30:58Z) - Brief for the Canada House of Commons Study on the Implications of
Artificial Intelligence Technologies for the Canadian Labor Force: Generative
Artificial Intelligence Shatters Models of AI and Labor [1.0878040851638]
過去の技術と同様に、生成的AIは大量失業に繋がらないかもしれない。
生成AIは創造的で認知的で、潜在的にユビキタスである。
AIのフルセットの能力とアプリケーションが出現するにつれて、政策立案者は労働者のキャリア適応性を促進するべきである。
論文 参考訳(メタデータ) (2023-11-06T22:58:24Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - On the Influence of Explainable AI on Automation Bias [0.0]
我々は、説明可能なAI(XAI)によって自動化バイアスに影響を与える可能性に光を当てることを目指している。
ホテルのレビュー分類に関するオンライン実験を行い、最初の結果について議論する。
論文 参考訳(メタデータ) (2022-04-19T12:54:23Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Needs and Artificial Intelligence [0.0]
我々は、ニーズとAIの関係を反映し、ニーズを意識したAIシステムの実現を求める。
我々は、未来のAIベースの社会技術システムを共同開発する上で、最も重要なギャップ、障壁、イネーブラー、ドライバについて論じる。
論文 参考訳(メタデータ) (2022-02-18T15:16:22Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Toward a Rational and Ethical Sociotechnical System of Autonomous
Vehicles: A Novel Application of Multi-Criteria Decision Analysis [0.0]
人工知能(AI)と自律システムの拡張は、膨大な社会的利益を生み出す可能性を示している。
知的エージェントのシステム開発を可能にするために、関連する社会的懸念に対処する必要がある。
論文 参考訳(メタデータ) (2021-02-04T23:52:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。