論文の概要: "It is there, and you need it, so why do you not use it?" Achieving better adoption of AI systems by domain experts, in the case study of natural science research
- arxiv url: http://arxiv.org/abs/2403.16895v1
- Date: Mon, 25 Mar 2024 16:06:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 20:34:33.761610
- Title: "It is there, and you need it, so why do you not use it?" Achieving better adoption of AI systems by domain experts, in the case study of natural science research
- Title(参考訳): 「そこにいて、必要なのだから、なぜ使わないの?」「自然科学研究のケーススタディにおいて、ドメインの専門家によるAIシステムのより良い採用を実現する」
- Authors: Auste Simkute, Ewa Luger, Michael Evans, Rhianne Jones,
- Abstract要約: 人工知能(AI)は、医学や自然科学研究などの分野で普及しつつある。
しかし、実際にAIシステムが実装されている場合、ドメインの専門家はそれを拒否することが多い。
自然科学研究において、科学者によるAI対応システムの非効果的な使用は、データを分析して研究を進めるのを妨げる可能性がある。
- 参考スコア(独自算出の注目度): 3.2898657562398386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence (AI) is becoming ubiquitous in domains such as medicine and natural science research. However, when AI systems are implemented in practice, domain experts often refuse them. Low acceptance hinders effective human-AI collaboration, even when it is essential for progress. In natural science research, scientists' ineffective use of AI-enabled systems can impede them from analysing their data and advancing their research. We conducted an ethnographically informed study of 10 in-depth interviews with AI practitioners and natural scientists at the organisation facing low adoption of algorithmic systems. Results were consolidated into recommendations for better AI adoption: i) actively supporting experts during the initial stages of system use, ii) communicating the capabilities of a system in a user-relevant way, and iii) following predefined collaboration rules. We discuss the broader implications of our findings and expand on how our proposed requirements could support practitioners and experts across domains.
- Abstract(参考訳): 人工知能(AI)は、医学や自然科学研究などの分野で普及しつつある。
しかし、実際にAIシステムが実装されている場合、ドメインの専門家はそれを拒否することが多い。
低受け入れは、進歩に不可欠である場合でも、効果的な人間とAIのコラボレーションを妨げる。
自然科学研究において、科学者によるAI対応システムの非効果的な使用は、データを分析して研究を進めるのを妨げる可能性がある。
我々は,アルゴリズムシステムの採用が低い組織において,AI実践者と自然科学者との10回の詳細なインタビューをエスノグラフィ的に調査した。
結果は、より良いAI採用のためのレコメンデーションにまとめられた。
一 システム利用の初期段階において、専門家を積極的に支援すること。
二 利用者関連方式でシステムの能力を伝えること。
三 前定の協力規程に従うこと。
我々は、我々の発見のより広範な意味を議論し、提案された要件がドメイン横断の実践者や専門家をどのように支援できるかを拡大する。
関連論文リスト
- AIGS: Generating Science from AI-Powered Automated Falsification [17.50867181053229]
本稿では,重要な研究プロセスを代表する役割を担ったマルチエージェントシステムである,フルプロセスAIGSシステムのベビーステップとして,Baby-AIGSを提案する。
3つのタスクの実験では、Baby-AIGSは経験豊富な人間の研究者と同等ではないが、有意義な科学的発見を産み出すことができた。
論文 参考訳(メタデータ) (2024-11-17T13:40:35Z) - Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Explainable AI applications in the Medical Domain: a systematic review [1.4419517737536707]
医療AIの分野は、ユーザー信頼の構築、規制の遵守、倫理的にデータの利用など、さまざまな課題に直面している。
本稿では,近年発行されている198記事の代表的サンプルをもとに,XAIソリューションの医療意思決定支援への展開に関する文献的考察を行う。
論文 参考訳(メタデータ) (2023-08-10T08:12:17Z) - Artificial intelligence adoption in the physical sciences, natural
sciences, life sciences, social sciences and the arts and humanities: A
bibliometric analysis of research publications from 1960-2021 [73.06361680847708]
1960年には333の研究分野の14%がAIに関連していたが、1972年には全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
1960年には、333の研究分野の14%がAI(コンピュータ科学の多くの分野)に関連していたが、1972年までに全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
我々は、現在の急上昇の状況が異なっており、学際的AI応用が持続する可能性が高いと結論付けている。
論文 参考訳(メタデータ) (2023-06-15T14:08:07Z) - Quantifying the Benefit of Artificial Intelligence for Scientific Research [2.4700789675440524]
我々は、科学研究におけるAIの直接的な利用とAIの潜在的利益の両方を見積もる。
研究におけるAIの利用は科学に広く浸透しており、特に2015年以来急速に成長している。
我々の分析は、AIが多くの科学分野に利益をもたらす可能性があることを示しているが、AI教育とその研究応用の間には顕著な断絶がある。
論文 参考訳(メタデータ) (2023-04-17T08:08:50Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - A narrowing of AI research? [0.0]
学術と民間におけるAI研究のテーマ的多様性の進化について研究する。
我々は、AI研究における民間企業の影響力を、彼らが受け取った引用と他の機関とのコラボレーションを通じて測定する。
論文 参考訳(メタデータ) (2020-09-22T08:23:56Z) - The Threats of Artificial Intelligence Scale (TAI). Development,
Measurement and Test Over Three Application Domains [0.0]
いくつかの世論調査は、自律ロボットと人工知能(FARAI)の公衆の恐怖を頻繁に問う
我々は、AIシステムの4つの機能クラスを考慮し、AIアプリケーションの様々な領域に適用可能な、AIの脅威知覚を測定するためのきめ細かいスケールを提案する。
データは提案されたAIのThreats of AI(TAI)スケールの次元構造と、インジケータの内部一貫性と因子的妥当性をサポートする。
論文 参考訳(メタデータ) (2020-06-12T14:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。