論文の概要: Generative Artificial Intelligence in Healthcare: Ethical Considerations
and Assessment Checklist
- arxiv url: http://arxiv.org/abs/2311.02107v1
- Date: Thu, 2 Nov 2023 11:55:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 19:20:16.443530
- Title: Generative Artificial Intelligence in Healthcare: Ethical Considerations
and Assessment Checklist
- Title(参考訳): 医療における創造的人工知能 : 倫理的考察と評価チェックリスト
- Authors: Yilin Ning, Salinelat Teixayavong, Yuqing Shang, Julian Savulescu,
Vaishaanth Nagaraj, Di Miao, Mayli Mertens, Daniel Shu Wei Ting, Jasmine
Chiat Ling Ong, Mingxuan Liu, Jiuwen Cao, Michael Dunn, Roger Vaughan, Marcus
Eng Hock Ong, Joseph Jao-Yiu Sung, Eric J Topol, Nan Liu
- Abstract要約: ChatGPTと、生成人工知能(AI)を利用した他の新興技術は、潜在的な倫理的問題に多くの注意を払っている。
生成AI開発における倫理的議論の包括的評価と透過的な文書化のための倫理チェックリストを提案する。
- 参考スコア(独自算出の注目度): 10.980912140648648
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread use of ChatGPT and other emerging technology powered by
generative artificial intelligence (AI) has drawn much attention to potential
ethical issues, especially in high-stakes applications such as healthcare.
However, less clear is how to resolve such issues beyond following guidelines
and regulations that are still under discussion and development. On the other
hand, other types of generative AI have been used to synthesize images and
other types of data for research and practical purposes, which have resolved
some ethical issues and exposed other ethical issues, but such technology is
less often the focus of ongoing ethical discussions. Here we highlight gaps in
current ethical discussions of generative AI via a systematic scoping review of
relevant existing research in healthcare, and reduce the gaps by proposing an
ethics checklist for comprehensive assessment and transparent documentation of
ethical discussions in generative AI development. While the checklist can be
readily integrated into the current peer review and publication system to
enhance generative AI research, it may also be used in broader settings to
disclose ethics-related considerations in generative AI-powered products (or
real-life applications of such products) to help users establish reasonable
trust in their capabilities.
- Abstract(参考訳): 生成人工知能(AI)を利用したChatGPTやその他の新興技術の普及は、特に医療などの高度な応用において、潜在的な倫理的問題に多くの注目を集めている。
しかしながら、議論と開発が進行中のガイドラインや規則に従う以外に、このような問題を解決する方法が明確でない。
一方、他の生成AIは、いくつかの倫理的問題を解決し、他の倫理的問題を露呈する研究目的のために画像やその他の種類のデータを合成するために使われてきたが、そのような技術は、現在進行中の倫理的議論の焦点であることが多い。
ここでは、医療における既存の研究の体系的なスクーピングレビューを通じて、現在生成AIに関する倫理的議論のギャップを強調し、総合的な評価のための倫理的チェックリストと、生成AI開発における倫理的議論の透明な文書を提案することにより、ギャップを減らす。
チェックリストは、現在のピアレビューおよび出版システムに簡単に統合して、生成ai研究を強化することができるが、生成ai製品(またはそのような製品の実際の応用)における倫理に関する考慮を開示するために、幅広い設定で使用される可能性がある。
関連論文リスト
- Governance of Generative Artificial Intelligence for Companies [1.4003044924094596]
GenAIの変革的な性質と規制措置に関する広範な議論にもかかわらず、限定的な研究は組織的なガバナンスに対処している。
本総説では, このギャップを最近の研究で埋めるものである。
当社のフレームワークは、ビジネス機会を活用するためのスコープ、目的、ガバナンスメカニズムを概説しています。
論文 参考訳(メタデータ) (2024-02-05T14:20:19Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Towards A Unified Utilitarian Ethics Framework for Healthcare Artificial
Intelligence [0.08192907805418582]
本研究では、異なる技術レベルでAIの実用性能に影響を与える主要な倫理的原則を特定することを試みる。
正義、プライバシー、偏見、規制の欠如、リスク、解釈可能性は倫理的AIを検討する上で最も重要な原則である。
本稿では,医療領域における倫理的AIを設計するための実用的倫理に基づく理論的枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-26T02:10:58Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - FUTURE-AI: International consensus guideline for trustworthy and
deployable artificial intelligence in healthcare [73.51384299592974]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Science in the Era of ChatGPT, Large Language Models and Generative AI:
Challenges for Research Ethics and How to Respond [3.3504365823045044]
本稿では,生成AIの出現にともなう科学行為における課題,倫理的・整合性リスクを概観する。
研究機器と主題としてのAI言語モデルの役割は、科学者、参加者、レビュアーに対する倫理的意味とともに精査されている。
論文 参考訳(メタデータ) (2023-05-24T16:23:46Z) - Human-Centered Responsible Artificial Intelligence: Current & Future
Trends [76.94037394832931]
近年、CHIコミュニティは人間中心のレスポンシブル人工知能の研究において著しい成長を遂げている。
この研究はすべて、人権と倫理に根ざしたまま、人類に利益をもたらすAIを開発し、AIの潜在的な害を減らすことを目的としている。
本研究グループでは,これらのトピックに関心のある学術・産業の研究者を集結させ,現在の研究動向と今後の研究動向を地図化することを目的とする。
論文 参考訳(メタデータ) (2023-02-16T08:59:42Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Breaking Bad News in the Era of Artificial Intelligence and Algorithmic
Medicine: An Exploration of Disclosure and its Ethical Justification using
the Hedonic Calculus [0.0]
私たちは、AIの時代において、'Felicific Calculus'が時間的に準定量的な応用である可能性を示します。
この倫理的アルゴリズムは、AIが支援する行動が道徳的に正当化されるかどうかを、相互に排他的で徹底した7つの領域にわたって評価するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-06-23T16:54:18Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。