論文の概要: Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare
- arxiv url: http://arxiv.org/abs/2305.14182v1
- Date: Tue, 23 May 2023 16:04:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 15:03:54.344221
- Title: Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare
- Title(参考訳): 会話における倫理:医療における自律型AI対応音声エージェントの倫理保証ケースの構築
- Authors: Marten H. L. Kaas, Zoe Porter, Ernest Lim, Aisling Higham, Sarah
Khavandi and Ibrahim Habli
- Abstract要約: 原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
- 参考スコア(独自算出の注目度): 1.8964739087256175
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The deployment and use of AI systems should be both safe and broadly
ethically acceptable. The principles-based ethics assurance argument pattern is
one proposal in the AI ethics landscape that seeks to support and achieve that
aim. The purpose of this argument pattern or framework is to structure
reasoning about, and to communicate and foster confidence in, the ethical
acceptability of uses of specific real-world AI systems in complex
socio-technical contexts. This paper presents the interim findings of a case
study applying this ethics assurance framework to the use of Dora, an AI-based
telemedicine system, to assess its viability and usefulness as an approach. The
case study process to date has revealed some of the positive ethical impacts of
the Dora platform, as well as unexpected insights and areas to prioritise for
evaluation, such as risks to the frontline clinician, particularly in respect
of clinician autonomy. The ethics assurance argument pattern offers a practical
framework not just for identifying issues to be addressed, but also to start to
construct solutions in the form of adjustments to the distribution of benefits,
risks and constraints on human autonomy that could reduce ethical disparities
across affected stakeholders. Though many challenges remain, this research
represents a step in the direction towards the development and use of safe and
ethically acceptable AI systems and, ideally, a shift towards more
comprehensive and inclusive evaluations of AI systems in general.
- Abstract(参考訳): aiシステムのデプロイと使用は安全かつ広く倫理的に受け入れられるべきである。
原則に基づく倫理保証議論パターンは、その目的を支援し達成しようとするAI倫理のランドスケープにおける1つの提案である。
この議論パターンまたはフレームワークの目的は、複雑な社会技術的文脈における特定の現実世界のaiシステムの使用の倫理的受容性について推論し、コミュニケーションし、信頼を育むことである。
本稿では,AIをベースとした遠隔医療システムであるDoraの利用に倫理保証フレームワークを適用したケーススタディの中間的結果について,その実用性と有用性を評価する。
これまでのケーススタディプロセスでは、doraプラットフォームによるポジティブな倫理的影響、特に臨床の自律性に関して、最前線の臨床医に対するリスクなど、評価を優先する予期せぬ洞察や領域が明らかにされている。
倫理保証の議論パターンは、対処すべき問題を特定するだけでなく、利益、リスク、および影響する利害関係者間の倫理的格差を減らす人間の自律性に対する制約の調整という形でソリューションを構築するための実践的な枠組みを提供する。
多くの課題が残っているが、この研究は安全で倫理的に受け入れられるAIシステムの開発と利用に向けた一歩であり、理想的には、AIシステム全般のより包括的で包括的な評価へのシフトである。
関連論文リスト
- Fair by design: A sociotechnical approach to justifying the fairness of AI-enabled systems across the lifecycle [0.8164978442203773]
公正性は、既存のAIガイドラインにおいて最もよく認識される倫理的原則の1つである。
公正なAI対応システムの開発は、新たなAI規制によって要求される。
論文 参考訳(メタデータ) (2024-06-13T12:03:29Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Towards A Unified Utilitarian Ethics Framework for Healthcare Artificial
Intelligence [0.08192907805418582]
本研究では、異なる技術レベルでAIの実用性能に影響を与える主要な倫理的原則を特定することを試みる。
正義、プライバシー、偏見、規制の欠如、リスク、解釈可能性は倫理的AIを検討する上で最も重要な原則である。
本稿では,医療領域における倫理的AIを設計するための実用的倫理に基づく理論的枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-26T02:10:58Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - A Principles-based Ethics Assurance Argument Pattern for AI and
Autonomous Systems [5.45210704757922]
信頼できるAIと自律システム(AI/AS)研究コミュニティにおける新たな提案は、正当化された信頼を損なうために保証ケースを使用することだ。
本稿では, 提案を実質的に発展させ, 具体化する。
これは、保証ケースの方法論と、原則に基づく倫理的保証の議論パターンを構築するための一連の倫理的原則を結びつけます。
論文 参考訳(メタデータ) (2022-03-29T09:08:03Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - An Ecosystem Approach to Ethical AI and Data Use: Experimental
Reflections [0.0]
本稿では、倫理的課題に直面し解決することに関して、AI実践者のニーズを特定する方法論を提供する。
ダイアログと相互責任に基づく運用倫理に対する草の根的アプローチを提供する。
論文 参考訳(メタデータ) (2020-12-27T07:41:26Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。