論文の概要: Generative Artificial Intelligence in Healthcare: Ethical Considerations
and Assessment Checklist
- arxiv url: http://arxiv.org/abs/2311.02107v1
- Date: Thu, 2 Nov 2023 11:55:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 19:20:16.443530
- Title: Generative Artificial Intelligence in Healthcare: Ethical Considerations
and Assessment Checklist
- Title(参考訳): 医療における創造的人工知能 : 倫理的考察と評価チェックリスト
- Authors: Yilin Ning, Salinelat Teixayavong, Yuqing Shang, Julian Savulescu,
Vaishaanth Nagaraj, Di Miao, Mayli Mertens, Daniel Shu Wei Ting, Jasmine
Chiat Ling Ong, Mingxuan Liu, Jiuwen Cao, Michael Dunn, Roger Vaughan, Marcus
Eng Hock Ong, Joseph Jao-Yiu Sung, Eric J Topol, Nan Liu
- Abstract要約: ChatGPTと、生成人工知能(AI)を利用した他の新興技術は、潜在的な倫理的問題に多くの注意を払っている。
生成AI開発における倫理的議論の包括的評価と透過的な文書化のための倫理チェックリストを提案する。
- 参考スコア(独自算出の注目度): 10.980912140648648
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread use of ChatGPT and other emerging technology powered by
generative artificial intelligence (AI) has drawn much attention to potential
ethical issues, especially in high-stakes applications such as healthcare.
However, less clear is how to resolve such issues beyond following guidelines
and regulations that are still under discussion and development. On the other
hand, other types of generative AI have been used to synthesize images and
other types of data for research and practical purposes, which have resolved
some ethical issues and exposed other ethical issues, but such technology is
less often the focus of ongoing ethical discussions. Here we highlight gaps in
current ethical discussions of generative AI via a systematic scoping review of
relevant existing research in healthcare, and reduce the gaps by proposing an
ethics checklist for comprehensive assessment and transparent documentation of
ethical discussions in generative AI development. While the checklist can be
readily integrated into the current peer review and publication system to
enhance generative AI research, it may also be used in broader settings to
disclose ethics-related considerations in generative AI-powered products (or
real-life applications of such products) to help users establish reasonable
trust in their capabilities.
- Abstract(参考訳): 生成人工知能(AI)を利用したChatGPTやその他の新興技術の普及は、特に医療などの高度な応用において、潜在的な倫理的問題に多くの注目を集めている。
しかしながら、議論と開発が進行中のガイドラインや規則に従う以外に、このような問題を解決する方法が明確でない。
一方、他の生成AIは、いくつかの倫理的問題を解決し、他の倫理的問題を露呈する研究目的のために画像やその他の種類のデータを合成するために使われてきたが、そのような技術は、現在進行中の倫理的議論の焦点であることが多い。
ここでは、医療における既存の研究の体系的なスクーピングレビューを通じて、現在生成AIに関する倫理的議論のギャップを強調し、総合的な評価のための倫理的チェックリストと、生成AI開発における倫理的議論の透明な文書を提案することにより、ギャップを減らす。
チェックリストは、現在のピアレビューおよび出版システムに簡単に統合して、生成ai研究を強化することができるが、生成ai製品(またはそのような製品の実際の応用)における倫理に関する考慮を開示するために、幅広い設定で使用される可能性がある。
関連論文リスト
- Research Integrity and GenAI: A Systematic Analysis of Ethical Challenges Across Research Phases [0.0]
学界における生成AI(GenAI)ツールの急速な開発と利用は、ユーザにとって複雑で多面的な倫理的課題を提示している。
本研究は、さまざまな研究段階におけるGenAIの使用による倫理的懸念について検討することを目的とする。
論文 参考訳(メタデータ) (2024-12-13T13:31:45Z) - "So what if I used GenAI?" -- Implications of Using Cloud-based GenAI in Software Engineering Research [0.0]
本論文は、GenAIが用いられている様々な研究の側面に光を当て、その法的な意味を初心者や芽生えの研究者に認識させるものである。
我々は、GenAIを使用するすべてのソフトウェア研究者が、責任の主張を暴露する重大なミスを避けるために意識すべきであるという現在の知識について、重要な側面を要約する。
論文 参考訳(メタデータ) (2024-12-10T06:18:15Z) - AI-Enhanced Ethical Hacking: A Linux-Focused Experiment [2.3020018305241337]
この研究は、Linuxベースのターゲットマシン上での侵入テストの重要な段階におけるGenAIの有効性を評価する。
このレポートは、誤用、データの偏見、幻覚、AIへの過度信頼といった潜在的なリスクを批判的に調査している。
論文 参考訳(メタデータ) (2024-10-07T15:02:47Z) - A Systematic Review of Generative AI for Teaching and Learning Practice [0.37282630026096586]
高等教育におけるGenAIシステムの利用に関するガイドラインは合意されていない。
HEにおける学際的・多次元的な研究は、共同研究を通じて必要である。
論文 参考訳(メタデータ) (2024-06-13T18:16:27Z) - Artificial Intelligence in Industry 4.0: A Review of Integration Challenges for Industrial Systems [45.31340537171788]
サイバー物理システム(CPS)は、予測保守や生産計画を含むアプリケーションに人工知能(AI)が活用できる膨大なデータセットを生成する。
AIの可能性を実証しているにもかかわらず、製造業のような分野に広く採用されていることは依然として限られている。
論文 参考訳(メタデータ) (2024-05-28T20:54:41Z) - Leveraging Generative AI for Clinical Evidence Summarization Needs to Ensure Trustworthiness [47.51360338851017]
エビデンスベースの医療は、医療の意思決定と実践を最大限に活用することで、医療の質を向上させることを約束する。
様々な情報源から得ることができる医学的証拠の急速な成長は、明らかな情報の収集、評価、合成に挑戦する。
大規模言語モデルによって実証された、生成AIの最近の進歩は、困難な作業の促進を約束する。
論文 参考訳(メタデータ) (2023-11-19T03:29:45Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Science in the Era of ChatGPT, Large Language Models and Generative AI:
Challenges for Research Ethics and How to Respond [3.3504365823045044]
本稿では,生成AIの出現にともなう科学行為における課題,倫理的・整合性リスクを概観する。
研究機器と主題としてのAI言語モデルの役割は、科学者、参加者、レビュアーに対する倫理的意味とともに精査されている。
論文 参考訳(メタデータ) (2023-05-24T16:23:46Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。