論文の概要: "It is there, and you need it, so why do you not use it?" Achieving better adoption of AI systems by domain experts, in the case study of natural science research
- arxiv url: http://arxiv.org/abs/2403.16895v1
- Date: Mon, 25 Mar 2024 16:06:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 20:34:33.761610
- Title: "It is there, and you need it, so why do you not use it?" Achieving better adoption of AI systems by domain experts, in the case study of natural science research
- Title(参考訳): 「そこにいて、必要なのだから、なぜ使わないの?」「自然科学研究のケーススタディにおいて、ドメインの専門家によるAIシステムのより良い採用を実現する」
- Authors: Auste Simkute, Ewa Luger, Michael Evans, Rhianne Jones,
- Abstract要約: 人工知能(AI)は、医学や自然科学研究などの分野で普及しつつある。
しかし、実際にAIシステムが実装されている場合、ドメインの専門家はそれを拒否することが多い。
自然科学研究において、科学者によるAI対応システムの非効果的な使用は、データを分析して研究を進めるのを妨げる可能性がある。
- 参考スコア(独自算出の注目度): 3.2898657562398386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence (AI) is becoming ubiquitous in domains such as medicine and natural science research. However, when AI systems are implemented in practice, domain experts often refuse them. Low acceptance hinders effective human-AI collaboration, even when it is essential for progress. In natural science research, scientists' ineffective use of AI-enabled systems can impede them from analysing their data and advancing their research. We conducted an ethnographically informed study of 10 in-depth interviews with AI practitioners and natural scientists at the organisation facing low adoption of algorithmic systems. Results were consolidated into recommendations for better AI adoption: i) actively supporting experts during the initial stages of system use, ii) communicating the capabilities of a system in a user-relevant way, and iii) following predefined collaboration rules. We discuss the broader implications of our findings and expand on how our proposed requirements could support practitioners and experts across domains.
- Abstract(参考訳): 人工知能(AI)は、医学や自然科学研究などの分野で普及しつつある。
しかし、実際にAIシステムが実装されている場合、ドメインの専門家はそれを拒否することが多い。
低受け入れは、進歩に不可欠である場合でも、効果的な人間とAIのコラボレーションを妨げる。
自然科学研究において、科学者によるAI対応システムの非効果的な使用は、データを分析して研究を進めるのを妨げる可能性がある。
我々は,アルゴリズムシステムの採用が低い組織において,AI実践者と自然科学者との10回の詳細なインタビューをエスノグラフィ的に調査した。
結果は、より良いAI採用のためのレコメンデーションにまとめられた。
一 システム利用の初期段階において、専門家を積極的に支援すること。
二 利用者関連方式でシステムの能力を伝えること。
三 前定の協力規程に従うこと。
我々は、我々の発見のより広範な意味を議論し、提案された要件がドメイン横断の実践者や専門家をどのように支援できるかを拡大する。
関連論文リスト
- The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Explainable AI applications in the Medical Domain: a systematic review [1.4419517737536707]
医療AIの分野は、ユーザー信頼の構築、規制の遵守、倫理的にデータの利用など、さまざまな課題に直面している。
本稿では,近年発行されている198記事の代表的サンプルをもとに,XAIソリューションの医療意思決定支援への展開に関する文献的考察を行う。
論文 参考訳(メタデータ) (2023-08-10T08:12:17Z) - Artificial intelligence adoption in the physical sciences, natural
sciences, life sciences, social sciences and the arts and humanities: A
bibliometric analysis of research publications from 1960-2021 [73.06361680847708]
1960年には333の研究分野の14%がAIに関連していたが、1972年には全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
1960年には、333の研究分野の14%がAI(コンピュータ科学の多くの分野)に関連していたが、1972年までに全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
我々は、現在の急上昇の状況が異なっており、学際的AI応用が持続する可能性が高いと結論付けている。
論文 参考訳(メタデータ) (2023-06-15T14:08:07Z) - Quantifying the Benefit of Artificial Intelligence for Scientific
Research [2.369164777214412]
我々は、科学研究におけるAIの直接的な利用とAIの潜在的利益を推定する。
研究におけるAIの利用は科学全体に広まり、特に2015年以来急速に成長している。
ほぼすべての規律には、AIから大きく恩恵を受けるいくつかのサブフィールドが含まれていますが、AIの教育と研究への影響との間には、体系的なミスアライメントがあります。
論文 参考訳(メタデータ) (2023-04-17T08:08:50Z) - BO-Muse: A human expert and AI teaming framework for accelerated
experimental design [58.61002520273518]
我々のアルゴリズムは、人間の専門家が実験プロセスでリードすることを可能にする。
我々のアルゴリズムは、AIや人間よりも高速に、サブ線形に収束することを示す。
論文 参考訳(メタデータ) (2023-03-03T02:56:05Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Towards Human-centered Explainable AI: A Survey of User Studies for
Model Explanations [19.6851366307368]
我々は過去5年間に人間によるXAI評価で97コア論文を特定し分析してきた。
我々の研究は、XAIがレコメンダシステムなど特定のアプリケーション領域で急速に普及していることを示している。
我々は,XAI研究者や実践者を対象としたユーザスタディの設計と実施に関する実践的ガイドラインを提案する。
論文 参考訳(メタデータ) (2022-10-20T20:53:00Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - A narrowing of AI research? [0.0]
学術と民間におけるAI研究のテーマ的多様性の進化について研究する。
我々は、AI研究における民間企業の影響力を、彼らが受け取った引用と他の機関とのコラボレーションを通じて測定する。
論文 参考訳(メタデータ) (2020-09-22T08:23:56Z) - The Threats of Artificial Intelligence Scale (TAI). Development,
Measurement and Test Over Three Application Domains [0.0]
いくつかの世論調査は、自律ロボットと人工知能(FARAI)の公衆の恐怖を頻繁に問う
我々は、AIシステムの4つの機能クラスを考慮し、AIアプリケーションの様々な領域に適用可能な、AIの脅威知覚を測定するためのきめ細かいスケールを提案する。
データは提案されたAIのThreats of AI(TAI)スケールの次元構造と、インジケータの内部一貫性と因子的妥当性をサポートする。
論文 参考訳(メタデータ) (2020-06-12T14:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。