論文の概要: RAISE -- Radiology AI Safety, an End-to-end lifecycle approach
- arxiv url: http://arxiv.org/abs/2311.14570v1
- Date: Fri, 24 Nov 2023 15:59:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 14:34:09.236595
- Title: RAISE -- Radiology AI Safety, an End-to-end lifecycle approach
- Title(参考訳): RAISE -- エンドツーエンドライフサイクルアプローチであるRadiology AI Safety
- Authors: M. Jorge Cardoso, Julia Moosbauer, Tessa S. Cook, B. Selnur Erdal,
Brad Genereaux, Vikash Gupta, Bennett A. Landman, Tiarna Lee, Parashkev
Nachev, Elanchezhian Somasundaram, Ronald M. Summers, Khaled Younis,
Sebastien Ourselin, Franz MJ Pfister
- Abstract要約: 放射線学へのAIの統合は、臨床ケアの供給と効率を改善する機会をもたらす。
モデルが安全性、有効性、有効性の最高基準を満たすことに注力すべきである。
ここで提示されるロードマップは、放射線学におけるデプロイ可能で信頼性があり、安全なAIの達成を早めることを目的としている。
- 参考スコア(独自算出の注目度): 5.829180249228172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The integration of AI into radiology introduces opportunities for improved
clinical care provision and efficiency but it demands a meticulous approach to
mitigate potential risks as with any other new technology. Beginning with
rigorous pre-deployment evaluation and validation, the focus should be on
ensuring models meet the highest standards of safety, effectiveness and
efficacy for their intended applications. Input and output guardrails
implemented during production usage act as an additional layer of protection,
identifying and addressing individual failures as they occur. Continuous
post-deployment monitoring allows for tracking population-level performance
(data drift), fairness, and value delivery over time. Scheduling reviews of
post-deployment model performance and educating radiologists about new
algorithmic-driven findings is critical for AI to be effective in clinical
practice. Recognizing that no single AI solution can provide absolute assurance
even when limited to its intended use, the synergistic application of quality
assurance at multiple levels - regulatory, clinical, technical, and ethical -
is emphasized. Collaborative efforts between stakeholders spanning healthcare
systems, industry, academia, and government are imperative to address the
multifaceted challenges involved. Trust in AI is an earned privilege,
contingent on a broad set of goals, among them transparently demonstrating that
the AI adheres to the same rigorous safety, effectiveness and efficacy
standards as other established medical technologies. By doing so, developers
can instil confidence among providers and patients alike, enabling the
responsible scaling of AI and the realization of its potential benefits. The
roadmap presented herein aims to expedite the achievement of deployable,
reliable, and safe AI in radiology.
- Abstract(参考訳): 放射線学へのAIの統合は、臨床ケアの供給と効率を改善する機会をもたらすが、他の新しい技術と同様に潜在的なリスクを軽減するための巧妙なアプローチを必要とする。
厳密なデプロイメント前評価と検証から始め、モデルが意図したアプリケーションに対する安全性、有効性、有効性の最高の基準を満たすことに重点を置くべきです。
運用中に実装された入力と出力のガードレールは、個々の障害の発生を識別し、対処する追加のレイヤとして機能する。
継続的デプロイ後のモニタリングにより、人口レベルのパフォーマンス(データドリフト)、公平性、価値提供の追跡が可能になる。
デプロイ後のモデルパフォーマンスのスケジューリングと、新しいアルゴリズム駆動の発見に関する放射線学者の教育は、AIが臨床実践に有効であるために重要である。
意図された使用に制限されても、単一のAIソリューションが絶対的な保証を提供することができないことを認識し、規制、臨床、技術、倫理といった複数のレベルで品質保証の相乗的適用が強調された。
医療システム、産業、学界、政府にまたがる利害関係者の協力は、関連する多面的な課題に対処するために不可欠である。
その中には、AIが他の確立された医療技術と同じ厳格な安全性、有効性、有効性基準に準拠していることを明確に示すものも含まれている。
そうすることで、開発者は提供者と患者間の信頼感を損なうことができ、AIの責任あるスケーリングと潜在的なメリットの実現を可能にします。
ここで提示されるロードマップは、放射線学におけるデプロイ可能で信頼性があり、安全なAIの達成を早めることを目的としている。
関連論文リスト
- Integrating ChatGPT into Secure Hospital Networks: A Case Study on
Improving Radiology Report Analysis [1.3624495460189863]
本研究は,ChatGPTに類似したクラウドベースのAIを,放射線学報告を解析するためのセキュアなモデルに初めて適応させたものである。
コントラスト学習によるユニークな文レベルの知識蒸留手法を用いて,異常検出の精度を95%以上向上する。
論文 参考訳(メタデータ) (2024-02-14T18:02:24Z) - New Epochs in AI Supervision: Design and Implementation of an Autonomous
Radiology AI Monitoring System [5.50085484902146]
本稿では,放射線学AI分類モデルの性能を実際に監視するための新しい手法を提案する。
予測分散と時間安定性という2つの指標を提案し、AIのパフォーマンス変化のプリエンプティブアラートに使用する。
論文 参考訳(メタデータ) (2023-11-24T06:29:04Z) - Functional requirements to mitigate the Risk of Harm to Patients from
Artificial Intelligence in Healthcare [0.0]
本研究は、医療目的に関連するリスクを軽減するために、AIシステムが実装可能な14の機能要件を提案する。
ここでの私たちの意図は、将来のEU規制フレームワークに準拠した患者に、継続的なパフォーマンスとAIシステムの使用を保証するために、技術的なソリューションの特定のハイレベルな仕様を提供することです。
論文 参考訳(メタデータ) (2023-09-19T08:37:22Z) - FUTURE-AI: International consensus guideline for trustworthy and
deployable artificial intelligence in healthcare [73.51384299592974]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Pruning the Way to Reliable Policies: A Multi-Objective Deep Q-Learning
Approach to Critical Care [68.8204255655161]
我々は、より信頼性の高いクリティカルケアポリシーを得ることができる深いQ-ラーニングアプローチを導入する。
まず、利用可能なすべての報酬に基づいてアクションセットを抽出し、次に、スパース主報酬に基づいて最終モデルを訓練し、制限されたアクションセットで達成する。
論文 参考訳(メタデータ) (2023-06-13T18:02:57Z) - U-PASS: an Uncertainty-guided deep learning Pipeline for Automated Sleep
Staging [61.6346401960268]
プロセスの各段階で不確実性推定を組み込んだ臨床応用に適した,U-PASSと呼ばれる機械学習パイプラインを提案する。
不確実性誘導型ディープラーニングパイプラインを睡眠ステージングの困難な問題に適用し、各ステージにおけるパフォーマンスを体系的に改善することを示す。
論文 参考訳(メタデータ) (2023-06-07T08:27:36Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Robust and Efficient Medical Imaging with Self-Supervision [80.62711706785834]
医用画像AIの堅牢性とデータ効率を向上させるための統一表現学習戦略であるREMEDISを提案する。
様々な医療画像タスクを研究し, 振り返りデータを用いて3つの現実的な応用シナリオをシミュレートする。
論文 参考訳(メタデータ) (2022-05-19T17:34:18Z) - FUTURE-AI: Guiding Principles and Consensus Recommendations for
Trustworthy Artificial Intelligence in Medical Imaging [7.348829428853512]
現在、医療画像における将来のAI開発を導くための具体的なガイドラインやベストプラクティスは存在しない。
本稿では、ヘルスイメージングにおけるAIに関する5つの大きなヨーロッパプロジェクトから、蓄積された経験、コンセンサス、ベストプラクティスから引き出されたガイド原則を慎重に選択する。
これらの指針はFUTURE-AIと呼ばれ、その構成要素は(i)公正性、(ii)普遍性、(iii)トレーサビリティ、(iv)ユーザビリティ、(v)ロバスト性、(vi)説明性からなる。
論文 参考訳(メタデータ) (2021-09-20T16:22:49Z) - Towards a framework for evaluating the safety, acceptability and
efficacy of AI systems for health: an initial synthesis [0.2936007114555107]
医療用AIシステムの安全性、受容性、有効性を評価するための最小限の枠組みを構築することを目指しています。
これを行うには、Scoopus、PubMed、Google Scholarで体系的な検索を行います。
その結果、医療用AIシステムの十分な評価を通じて、AIシステム開発者、政策立案者、規制当局を導くためのフレームワークです。
論文 参考訳(メタデータ) (2021-04-14T15:00:39Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。