論文の概要: Safety challenges of AI in medicine
- arxiv url: http://arxiv.org/abs/2409.18968v1
- Date: Wed, 11 Sep 2024 13:47:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 05:22:52.933210
- Title: Safety challenges of AI in medicine
- Title(参考訳): 医療におけるAIの安全性の課題
- Authors: Xiaoye Wang, Nicole Xi Zhang, Hongyu He, Trang Nguyen, Kun-Hsing Yu, Hao Deng, Cynthia Brandt, Danielle S. Bitterman, Ling Pan, Ching-Yu Cheng, James Zou, Dianbo Liu,
- Abstract要約: レビューでは、医療の安全性を損なう可能性のあるAIプラクティスの潜在的なリスクについて検討している。
試験は、多様な集団におけるパフォーマンス、一貫性のない運用安定性、効果的なモデルチューニングのための高品質なデータの必要性、モデルの開発とデプロイメントにおけるデータ漏洩のリスクを低減した。
本稿の第2部では、医学的文脈において、大規模言語モデル(LLM)に特有の安全性の問題について論じる。
- 参考スコア(独自算出の注目度): 23.817939398729955
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in artificial intelligence (AI), particularly in deep learning and large language models (LLMs), have accelerated their integration into medicine. However, these developments have also raised public concerns about the safe application of AI. In healthcare, these concerns are especially pertinent, as the ethical and secure deployment of AI is crucial for protecting patient health and privacy. This review examines potential risks in AI practices that may compromise safety in medicine, including reduced performance across diverse populations, inconsistent operational stability, the need for high-quality data for effective model tuning, and the risk of data breaches during model development and deployment. For medical practitioners, patients, and researchers, LLMs provide a convenient way to interact with AI and data through language. However, their emergence has also amplified safety concerns, particularly due to issues like hallucination. Second part of this article explores safety issues specific to LLMs in medical contexts, including limitations in processing complex logic, challenges in aligning AI objectives with human values, the illusion of understanding, and concerns about diversity. Thoughtful development of safe AI could accelerate its adoption in real-world medical settings.
- Abstract(参考訳): 人工知能(AI)の最近の進歩、特に深層学習と大規模言語モデル(LLM)は、医学への統合を加速している。
しかし、これらの開発はAIの安全な適用に関しても公の関心を喚起している。
医療において、これらの懸念は特に重要であり、患者の健康とプライバシを保護するためにAIの倫理的かつ安全な展開が不可欠である。
本稿では,医療の安全性を損なう可能性のあるAIプラクティスの潜在的なリスクについて検討する。例えば,多様な集団におけるパフォーマンスの低下,一貫性のない運用安定性,効果的なモデルチューニングのための高品質なデータの必要性,モデル開発とデプロイメントにおけるデータ侵害のリスクなどだ。
医療従事者、患者、研究者にとって、LLMは言語を介してAIやデータと対話する便利な手段を提供する。
しかし、その出現は、特に幻覚などの問題により、安全性の懸念も増している。
この記事では、複雑なロジックの処理の制限、AI目標と人間の価値の整合性に関する課題、理解の錯覚、多様性に関する懸念など、医学的な文脈でLLMに特有の安全性の問題について論じる。
安全なAIの思慮深い開発は、現実世界の医療環境における採用を加速させる可能性がある。
関連論文リスト
- Standardization Trends on Safety and Trustworthiness Technology for Advanced AI [0.0]
大規模言語モデルと基礎モデルに基づく最近のAI技術は、人工知能に近づいたり、超えたりしている。
これらの進歩は、高度なAIの安全性と信頼性に関する懸念を引き起こしている。
AIの安全性と信頼性を確保するため、国際的に合意された標準を開発するための努力が実施されている。
論文 参考訳(メタデータ) (2024-10-29T15:50:24Z) - Enhancing Guardrails for Safe and Secure Healthcare AI [0.0]
私は、医療特有のニーズに合うように、Nvidia NeMo Guardrailsのような既存のガードレールフレームワークの強化を提案します。
私は、医療におけるAIの安全で信頼性が高く正確な使用を確実にし、誤情報リスクを軽減し、患者の安全性を向上させることを目指しています。
論文 参考訳(メタデータ) (2024-09-25T06:30:06Z) - HAICOSYSTEM: An Ecosystem for Sandboxing Safety Risks in Human-AI Interactions [76.42274173122328]
本稿では,多様な複雑な社会的相互作用におけるAIエージェントの安全性を調べるフレームワークであるHAICOSYSTEMを提案する。
私たちは7つの領域(医療、金融、教育など)にわたる92のシナリオに基づいて1840のシミュレーションを実行します。
我々の実験は、最先端のLSMは、プロプライエタリかつオープンソースの両方で、50%以上のケースで安全リスクを示すことを示した。
論文 参考訳(メタデータ) (2024-09-24T19:47:21Z) - SoK: Security and Privacy Risks of Medical AI [14.592921477833848]
テクノロジーと医療の統合は、人工知能と機械学習を利用したソフトウェアシステムが、医療製品やサービスの不可欠なコンポーネントとなった新しい時代に幕を閉じた。
本稿では、医療におけるAI/MLアプリケーションによるセキュリティとプライバシの脅威について検討する。
論文 参考訳(メタデータ) (2024-09-11T16:59:58Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - RAISE -- Radiology AI Safety, an End-to-end lifecycle approach [5.829180249228172]
放射線学へのAIの統合は、臨床ケアの供給と効率を改善する機会をもたらす。
モデルが安全性、有効性、有効性の最高基準を満たすことに注力すべきである。
ここで提示されるロードマップは、放射線学におけるデプロイ可能で信頼性があり、安全なAIの達成を早めることを目的としている。
論文 参考訳(メタデータ) (2023-11-24T15:59:14Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Ethical Framework for Harnessing the Power of AI in Healthcare and
Beyond [0.0]
この総合的な研究論文は、AI技術の急速な進化と密接に関連する倫理的次元を厳格に調査する。
この記事の中心は、透明性、エクイティ、回答可能性、人間中心の指向といった価値を、慎重に強調するために作られた、良心的なAIフレームワークの提案である。
この記事は、グローバルに標準化されたAI倫理の原則とフレームワークに対するプレッシャーの必要性を明確に強調している。
論文 参考訳(メタデータ) (2023-08-31T18:12:12Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。