論文の概要: Holding AI to Account: Challenges for the Delivery of Trustworthy AI in
Healthcare
- arxiv url: http://arxiv.org/abs/2211.16444v1
- Date: Tue, 29 Nov 2022 18:22:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 17:16:30.420604
- Title: Holding AI to Account: Challenges for the Delivery of Trustworthy AI in
Healthcare
- Title(参考訳): AIを考慮に入れる - 医療における信頼できるAIの提供への挑戦
- Authors: Rob Procter, Peter Tolmie, Mark Rouncefield
- Abstract要約: 我々は、信頼できるAIの問題を検証し、これを実現することが実際に何を意味するのかを探る。
ここでは、人々が社会技術的設定においてAIを推論し、信頼する方法において、組織的説明責任が果たす重要な部分を見落としている、と論じる。
- 参考スコア(独自算出の注目度): 8.351355707564153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The need for AI systems to provide explanations for their behaviour is now
widely recognised as key to their adoption. In this paper, we examine the
problem of trustworthy AI and explore what delivering this means in practice,
with a focus on healthcare applications. Work in this area typically treats
trustworthy AI as a problem of Human-Computer Interaction involving the
individual user and an AI system. However, we argue here that this overlooks
the important part played by organisational accountability in how people reason
about and trust AI in socio-technical settings. To illustrate the importance of
organisational accountability, we present findings from ethnographic studies of
breast cancer screening and cancer treatment planning in multidisciplinary team
meetings to show how participants made themselves accountable both to each
other and to the organisations of which they are members. We use these findings
to enrich existing understandings of the requirements for trustworthy AI and to
outline some candidate solutions to the problems of making AI accountable both
to individual users and organisationally. We conclude by outlining the
implications of this for future work on the development of trustworthy AI,
including ways in which our proposed solutions may be re-used in different
application settings.
- Abstract(参考訳): 振る舞いの説明を提供するAIシステムの必要性は、その採用の鍵として広く認識されている。
本稿では、信頼に値するAIの問題点を考察し、医療アプリケーションに焦点をあてて、実際にこれを実現する意味を探求する。
この領域での作業は通常、個人ユーザとAIシステムを含む人間とコンピュータのインタラクションの問題として、信頼できるAIを扱う。
しかし、ここでは、社会技術的環境でAIを推論し、信頼する方法において、組織の説明責任が果たす重要な部分を見落としていると論じる。
組織的説明責任の重要性を明らかにするため,複数学際的なチームミーティングにおいて,乳がん検診とがん治療計画のエスノグラフィー的研究から,参加者が相互に,また,そのメンバーである組織に対して,どのように自己責任を負わせたかを示す。
我々はこれらの知見を用いて、信頼できるaiの要件に対する既存の理解を深め、aiを個人ユーザと組織の両方に責任を負わせる問題に対するいくつかの候補ソリューションを概説する。
最後に、信頼できるaiの開発に関する今後の作業において、提案するソリューションが異なるアプリケーション設定で再利用される方法を含む、この意味を概説する。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Knowing About Knowing: An Illusion of Human Competence Can Hinder
Appropriate Reliance on AI Systems [13.484359389266864]
本稿では、Dunning-Kruger Effect(DKE)がAIシステムへの適切な依存を妨げているかどうかを論じる。
DKEは、能力の低い個人が自身のスキルやパフォーマンスを過大評価しているため、メタ認知バイアスである。
その結果、パフォーマンスを過大評価する参加者は、AIシステムへの信頼度が低い傾向にあることがわかった。
論文 参考訳(メタデータ) (2023-01-25T14:26:10Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Socially Responsible AI Algorithms: Issues, Purposes, and Challenges [31.382000425295885]
技術者とAI研究者は、信頼できるAIシステムを開発する責任がある。
AIと人間の長期的な信頼を構築するためには、アルゴリズムの公正性を超えて考えることが鍵だ、と私たちは主張する。
論文 参考訳(メタデータ) (2021-01-01T17:34:42Z) - Trust and Medical AI: The challenges we face and the expertise needed to
overcome them [15.07989177980542]
医療AIの失敗は、臨床結果や患者の経験に重大な影響を及ぼす可能性がある。
本稿では,医療AIにおける概念的,技術的,人道的課題について述べる。
医療用AI技術の開発、検証、運用を専門とする新たな専門家グループの教育と認定を基盤とするソリューションを提案する。
論文 参考訳(メタデータ) (2020-08-18T04:17:58Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。