論文の概要: Generative Artificial Intelligence in Healthcare: Ethical Considerations
and Assessment Checklist
- arxiv url: http://arxiv.org/abs/2311.02107v2
- Date: Fri, 23 Feb 2024 14:50:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 17:46:22.712343
- Title: Generative Artificial Intelligence in Healthcare: Ethical Considerations
and Assessment Checklist
- Title(参考訳): 医療における創造的人工知能 : 倫理的考察と評価チェックリスト
- Authors: Yilin Ning, Salinelat Teixayavong, Yuqing Shang, Julian Savulescu,
Vaishaanth Nagaraj, Di Miao, Mayli Mertens, Daniel Shu Wei Ting, Jasmine
Chiat Ling Ong, Mingxuan Liu, Jiuwen Cao, Michael Dunn, Roger Vaughan, Marcus
Eng Hock Ong, Joseph Jao-Yiu Sung, Eric J Topol, Nan Liu
- Abstract要約: 我々は医療における創造的人工知能(GenAI)に関する倫理的議論のスコーピングレビューを行う。
我々は,GenAI研究における倫理的議論の包括的評価と透明な文書化のためのチェックリストを開発することにより,ギャップを減らすことを提案する。
- 参考スコア(独自算出の注目度): 10.980912140648648
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread use of ChatGPT and other emerging technology powered by
generative artificial intelligence (GenAI) has drawn much attention to
potential ethical issues, especially in high-stakes applications such as
healthcare, but ethical discussions are yet to translate into operationalisable
solutions. Furthermore, ongoing ethical discussions often neglect other types
of GenAI that have been used to synthesise data (e.g., images) for research and
practical purposes, which resolved some ethical issues and exposed others. We
conduct a scoping review of ethical discussions on GenAI in healthcare to
comprehensively analyse gaps in the current research, and further propose to
reduce the gaps by developing a checklist for comprehensive assessment and
transparent documentation of ethical discussions in GenAI research. The
checklist can be readily integrated into the current peer review and
publication system to enhance GenAI research, and may be used for
ethics-related disclosures for GenAI-powered products, healthcare applications
of such products and beyond.
- Abstract(参考訳): 生成人工知能(GenAI)を利用したChatGPTやその他の新興技術の普及は、特に医療などの高度な応用において、潜在的な倫理的問題に多くの注意を払っている。
さらに、進行中の倫理的議論は、研究や実践目的のためにデータ(例えば画像)を合成するために使われてきた他の種類のGenAIを無視し、倫理的な問題を解決し、他を露出させることが多い。
我々は、現在の研究におけるギャップを包括的に分析するために、医療におけるGenAIに関する倫理的議論のスコーピングレビューを行い、また、GenAI研究における倫理的議論の総合的な評価のためのチェックリストと透明な文書を作成することにより、ギャップを減らすことを提案する。
チェックリストは、GenAI研究を強化するために、現在のピアレビューおよび出版システムに簡単に統合することができ、GenAI搭載製品の倫理関連の開示、これらの製品の医療応用などに使われる。
関連論文リスト
- Governance of Generative Artificial Intelligence for Companies [1.4003044924094596]
GenAIの変革的な性質と規制措置に関する広範な議論にもかかわらず、限定的な研究は組織的なガバナンスに対処している。
本総説では, このギャップを最近の研究で埋めるものである。
当社のフレームワークは、ビジネス機会を活用するためのスコープ、目的、ガバナンスメカニズムを概説しています。
論文 参考訳(メタデータ) (2024-02-05T14:20:19Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Towards A Unified Utilitarian Ethics Framework for Healthcare Artificial
Intelligence [0.08192907805418582]
本研究では、異なる技術レベルでAIの実用性能に影響を与える主要な倫理的原則を特定することを試みる。
正義、プライバシー、偏見、規制の欠如、リスク、解釈可能性は倫理的AIを検討する上で最も重要な原則である。
本稿では,医療領域における倫理的AIを設計するための実用的倫理に基づく理論的枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-26T02:10:58Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - FUTURE-AI: International consensus guideline for trustworthy and
deployable artificial intelligence in healthcare [73.51384299592974]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Science in the Era of ChatGPT, Large Language Models and Generative AI:
Challenges for Research Ethics and How to Respond [3.3504365823045044]
本稿では,生成AIの出現にともなう科学行為における課題,倫理的・整合性リスクを概観する。
研究機器と主題としてのAI言語モデルの役割は、科学者、参加者、レビュアーに対する倫理的意味とともに精査されている。
論文 参考訳(メタデータ) (2023-05-24T16:23:46Z) - Human-Centered Responsible Artificial Intelligence: Current & Future
Trends [76.94037394832931]
近年、CHIコミュニティは人間中心のレスポンシブル人工知能の研究において著しい成長を遂げている。
この研究はすべて、人権と倫理に根ざしたまま、人類に利益をもたらすAIを開発し、AIの潜在的な害を減らすことを目的としている。
本研究グループでは,これらのトピックに関心のある学術・産業の研究者を集結させ,現在の研究動向と今後の研究動向を地図化することを目的とする。
論文 参考訳(メタデータ) (2023-02-16T08:59:42Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Breaking Bad News in the Era of Artificial Intelligence and Algorithmic
Medicine: An Exploration of Disclosure and its Ethical Justification using
the Hedonic Calculus [0.0]
私たちは、AIの時代において、'Felicific Calculus'が時間的に準定量的な応用である可能性を示します。
この倫理的アルゴリズムは、AIが支援する行動が道徳的に正当化されるかどうかを、相互に排他的で徹底した7つの領域にわたって評価するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-06-23T16:54:18Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。