論文の概要: What drives the acceptance of AI technology?: the role of expectations
and experiences
- arxiv url: http://arxiv.org/abs/2306.13670v1
- Date: Sat, 17 Jun 2023 02:47:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-02 13:46:40.205838
- Title: What drives the acceptance of AI technology?: the role of expectations
and experiences
- Title(参考訳): AI技術の受容を促すものは何だろう?
期待と経験の役割
- Authors: Minsang Yi and Hanbyul Choi
- Abstract要約: 人工知能に対する受容意図は、現在のAI製品やサービスの経験、AIへの期待、ICT技術に関する過去の経験に大きく影響されている。
本研究の結果から,AI経験と過去のICT経験が,AIを受け入れる意図の高まりと関連していることが明らかとなった。
潜在的なAIユーザに対して、AI製品やサービスの特徴とメリットに関する具体的な情報を提供することが不可欠である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, Artificial intelligence products and services have been
offered potential users as pilots. The acceptance intention towards artificial
intelligence is greatly influenced by the experience with current AI products
and services, expectations for AI, and past experiences with ICT technology.
This study aims to explore the factors that impact AI acceptance intention and
understand the process of its formation. The analysis results of this study
reveal that AI experience and past ICT experience affect AI acceptance
intention in two ways. Through the direct path, higher AI experience and ICT
experience are associated with a greater intention to accept AI. Additionally,
there is an indirect path where AI experience and ICT experience contribute to
increased expectations for AI, and these expectations, in turn, elevate
acceptance intention. Based on the findings, several recommendations are
suggested for companies and public organizations planning to implement
artificial intelligence in the future. It is crucial to manage the user
experience of ICT services and pilot AI products and services to deliver
positive experiences. It is essential to provide potential AI users with
specific information about the features and benefits of AI products and
services. This will enable them to develop realistic expectations regarding AI
technology.
- Abstract(参考訳): 近年、人工知能製品やサービスはパイロットとして潜在的なユーザーを提供するようになっている。
人工知能に対する受容意図は、現在のAI製品やサービスの経験、AIへの期待、ICT技術に関する過去の経験に大きく影響されている。
本研究は,AIの受容意図に影響を与える要因を探究し,その形成過程を理解することを目的とする。
本研究では,AI経験と過去のICT経験が,AI受容意図に2つの影響を及ぼすことを示す。
直接的な経路を通じて、より高いAI経験とICT経験は、AIを受け入れる意図の高まりと関連している。
さらに、AI体験とICT体験がAIに対する期待の高まりに寄与する間接的な経路があり、その結果として、これらの期待が受容意図を高める。
この結果に基づき、将来人工知能の導入を計画している企業や公共団体に対して、いくつかの推奨事項が提案されている。
ICTサービスとパイロットAI製品とサービスのユーザエクスペリエンスを管理し、ポジティブなエクスペリエンスを提供することが重要です。
潜在的なAIユーザに対して、AI製品やサービスの特徴とメリットに関する具体的な情報を提供することが不可欠である。
これにより、AI技術に関する現実的な期待を実現できる。
関連論文リスト
- The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Agency and legibility for artists through Experiential AI [12.941266914933454]
Experiential AIは、AIを具体的で明示的なものにするという課題に対処する、新たな研究分野である。
本稿では,創造的データ探索を目的とした経験的AIシステムの実証事例について報告する。
実験的なAIがアーティストの妥当性とエージェンシーを高める方法について論じる。
論文 参考訳(メタデータ) (2023-06-04T11:00:07Z) - End-User Development for Artificial Intelligence: A Systematic
Literature Review [2.347942013388615]
エンドユーザ開発(EUD)は、AIベースのシステムを自分たちのニーズに合わせて作成、カスタマイズ、あるいは適用することができる。
本稿では,AIシステムにおけるEUDの現在の状況に光を当てることを目的とした文献レビューを紹介する。
論文 参考訳(メタデータ) (2023-04-14T09:57:36Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Do We Need Explainable AI in Companies? Investigation of Challenges,
Expectations, and Chances from Employees' Perspective [0.8057006406834467]
AIの使用は、企業とその従業員に対して、AIシステムの透明性と理解性を含む、新たな要件を提供する。
説明可能なAI(XAI)の分野は、これらの問題に対処することを目指している。
本報告では,(X)AIに対する従業員のニーズと態度について考察する。
論文 参考訳(メタデータ) (2022-10-07T13:11:28Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Measuring Ethics in AI with AI: A Methodology and Dataset Construction [1.6861004263551447]
我々は、AI技術のこのような新しい機能を使用して、AI測定能力を増強することを提案する。
我々は倫理的問題や関心事に関連する出版物を分類するモデルを訓練する。
私たちは、AIメトリクス、特に信頼できる公正なAIベースのツールや技術開発への彼らの貢献の意味を強調します。
論文 参考訳(メタデータ) (2021-07-26T00:26:12Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。