論文の概要: Generative Artificial Intelligence in Healthcare: Ethical Considerations
and Assessment Checklist
- arxiv url: http://arxiv.org/abs/2311.02107v2
- Date: Fri, 23 Feb 2024 14:50:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 17:46:22.712343
- Title: Generative Artificial Intelligence in Healthcare: Ethical Considerations
and Assessment Checklist
- Title(参考訳): 医療における創造的人工知能 : 倫理的考察と評価チェックリスト
- Authors: Yilin Ning, Salinelat Teixayavong, Yuqing Shang, Julian Savulescu,
Vaishaanth Nagaraj, Di Miao, Mayli Mertens, Daniel Shu Wei Ting, Jasmine
Chiat Ling Ong, Mingxuan Liu, Jiuwen Cao, Michael Dunn, Roger Vaughan, Marcus
Eng Hock Ong, Joseph Jao-Yiu Sung, Eric J Topol, Nan Liu
- Abstract要約: 我々は医療における創造的人工知能(GenAI)に関する倫理的議論のスコーピングレビューを行う。
我々は,GenAI研究における倫理的議論の包括的評価と透明な文書化のためのチェックリストを開発することにより,ギャップを減らすことを提案する。
- 参考スコア(独自算出の注目度): 10.980912140648648
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread use of ChatGPT and other emerging technology powered by
generative artificial intelligence (GenAI) has drawn much attention to
potential ethical issues, especially in high-stakes applications such as
healthcare, but ethical discussions are yet to translate into operationalisable
solutions. Furthermore, ongoing ethical discussions often neglect other types
of GenAI that have been used to synthesise data (e.g., images) for research and
practical purposes, which resolved some ethical issues and exposed others. We
conduct a scoping review of ethical discussions on GenAI in healthcare to
comprehensively analyse gaps in the current research, and further propose to
reduce the gaps by developing a checklist for comprehensive assessment and
transparent documentation of ethical discussions in GenAI research. The
checklist can be readily integrated into the current peer review and
publication system to enhance GenAI research, and may be used for
ethics-related disclosures for GenAI-powered products, healthcare applications
of such products and beyond.
- Abstract(参考訳): 生成人工知能(GenAI)を利用したChatGPTやその他の新興技術の普及は、特に医療などの高度な応用において、潜在的な倫理的問題に多くの注意を払っている。
さらに、進行中の倫理的議論は、研究や実践目的のためにデータ(例えば画像)を合成するために使われてきた他の種類のGenAIを無視し、倫理的な問題を解決し、他を露出させることが多い。
我々は、現在の研究におけるギャップを包括的に分析するために、医療におけるGenAIに関する倫理的議論のスコーピングレビューを行い、また、GenAI研究における倫理的議論の総合的な評価のためのチェックリストと透明な文書を作成することにより、ギャップを減らすことを提案する。
チェックリストは、GenAI研究を強化するために、現在のピアレビューおよび出版システムに簡単に統合することができ、GenAI搭載製品の倫理関連の開示、これらの製品の医療応用などに使われる。
関連論文リスト
- AI-Enhanced Ethical Hacking: A Linux-Focused Experiment [2.3020018305241337]
この研究は、Linuxベースのターゲットマシン上での侵入テストの重要な段階におけるGenAIの有効性を評価する。
このレポートは、誤用、データの偏見、幻覚、AIへの過度信頼といった潜在的なリスクを批判的に調査している。
論文 参考訳(メタデータ) (2024-10-07T15:02:47Z) - Generative artificial intelligence in dentistry: Current approaches and future challenges [0.0]
生成AI(GenAI)モデルは、複雑なモデルと対話する自然言語インターフェースを提供することによって、AIのユーザビリティギャップを橋渡しする。
歯科教育では、GenAIモデルのみを推進し、多くの疑問を解決できる機会を得た。
GenAIは、新しい薬物発見から学術論文の補助まで、歯科医学研究にも利用することができる。
論文 参考訳(メタデータ) (2024-07-24T03:33:47Z) - Model-based Maintenance and Evolution with GenAI: A Look into the Future [47.93555901495955]
我々は、モデルベースエンジニアリング(MBM&E)の限界に対処する手段として、生成人工知能(GenAI)を用いることができると論じる。
我々は、エンジニアの学習曲線の削減、レコメンデーションによる効率の最大化、ドメイン問題を理解するための推論ツールとしてのGenAIの使用を提案する。
論文 参考訳(メタデータ) (2024-07-09T23:13:26Z) - A Systematic Review of Generative AI for Teaching and Learning Practice [0.37282630026096586]
高等教育におけるGenAIシステムの利用に関するガイドラインは合意されていない。
HEにおける学際的・多次元的な研究は、共同研究を通じて必要である。
論文 参考訳(メタデータ) (2024-06-13T18:16:27Z) - An ethical study of generative AI from the Actor-Network Theory perspective [3.0224187843434]
本稿では,ChatGPTをアクターネットワーク理論の枠組みにおけるケーススタディとして分析する。
本稿では,ChatGPTに関する倫理的問題に関わる翻訳のアクターとプロセスについて検討する。
論文 参考訳(メタデータ) (2024-04-10T02:32:19Z) - Leveraging Generative AI for Clinical Evidence Summarization Needs to Ensure Trustworthiness [47.51360338851017]
エビデンスベースの医療は、医療の意思決定と実践を最大限に活用することで、医療の質を向上させることを約束する。
様々な情報源から得ることができる医学的証拠の急速な成長は、明らかな情報の収集、評価、合成に挑戦する。
大規模言語モデルによって実証された、生成AIの最近の進歩は、困難な作業の促進を約束する。
論文 参考訳(メタデータ) (2023-11-19T03:29:45Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Science in the Era of ChatGPT, Large Language Models and Generative AI:
Challenges for Research Ethics and How to Respond [3.3504365823045044]
本稿では,生成AIの出現にともなう科学行為における課題,倫理的・整合性リスクを概観する。
研究機器と主題としてのAI言語モデルの役割は、科学者、参加者、レビュアーに対する倫理的意味とともに精査されている。
論文 参考訳(メタデータ) (2023-05-24T16:23:46Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。