論文の概要: CheXstray: Real-time Multi-Modal Data Concordance for Drift Detection in
Medical Imaging AI
- arxiv url: http://arxiv.org/abs/2202.02833v1
- Date: Sun, 6 Feb 2022 18:58:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 15:33:08.493754
- Title: CheXstray: Real-time Multi-Modal Data Concordance for Drift Detection in
Medical Imaging AI
- Title(参考訳): CheXstray:医療画像AIにおけるドリフト検出のためのリアルタイムマルチモーダルデータ一致
- Authors: Arjun Soin, Jameson Merkow, Jin Long, Joesph Paul Cohen, Smitha
Saligrama, Stephen Kaiser, Steven Borg, Ivan Tarapov and Matthew P Lungren
- Abstract要約: 医用画像AIドリフトモニタリングワークフローを構築してテストし、同時代の地上真実なしにデータとモデルドリフトを追跡する。
主な貢献は,(1)VAEおよび領域特異的統計手法を含む医用画像ドリフト検出のための概念実証である。
この研究は、動的医療環境における継続的医療画像AIモデルモニタリングに関連する翻訳ギャップに対処するために重要な意味を持つ。
- 参考スコア(独自算出の注目度): 1.359138408203412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rapidly expanding Clinical AI applications worldwide have the potential to
impact to all areas of medical practice. Medical imaging applications
constitute a vast majority of approved clinical AI applications. Though
healthcare systems are eager to adopt AI solutions a fundamental question
remains: \textit{what happens after the AI model goes into production?} We use
the CheXpert and PadChest public datasets to build and test a medical imaging
AI drift monitoring workflow that tracks data and model drift without
contemporaneous ground truth. We simulate drift in multiple experiments to
compare model performance with our novel multi-modal drift metric, which uses
DICOM metadata, image appearance representation from a variational autoencoder
(VAE), and model output probabilities as input. Through experimentation, we
demonstrate a strong proxy for ground truth performance using unsupervised
distributional shifts in relevant metadata, predicted probabilities, and VAE
latent representation. Our key contributions include (1) proof-of-concept for
medical imaging drift detection including use of VAE and domain specific
statistical methods (2) a multi-modal methodology for measuring and unifying
drift metrics (3) new insights into the challenges and solutions for observing
deployed medical imaging AI (4) creation of open-source tools enabling others
to easily run their own workflows or scenarios. This work has important
implications for addressing the translation gap related to continuous medical
imaging AI model monitoring in dynamic healthcare environments.
- Abstract(参考訳): 世界中で急速に拡大する臨床AIアプリケーションは、医療実践のあらゆる分野に影響を与える可能性がある。
医療画像アプリケーションは、承認された臨床AIアプリケーションの大部分を占めている。
医療システムはAIソリューションの採用を熱望しているが、根本的な疑問は残る。
私たちは、chexpertとpadchestの公開データセットを使用して、現在の根拠なくデータとモデルドリフトを追跡する医療イメージングaiドリフト監視ワークフローを構築し、テストしています。
複数の実験でドリフトをシミュレートし、DICOMメタデータを用いた新しいマルチモーダルドリフトメトリックとモデル性能を比較し、可変オートエンコーダ(VAE)による画像の外観表現とモデル出力確率を入力とする。
実験を通じて,関連メタデータの教師なし分布シフト,予測確率,VAE潜在表現を用いて,基底真理性能の強力なプロキシを示す。
主なコントリビューションは,(1)VAEとドメイン固有統計手法を用いた医用画像ドリフト検出の実証,(2)ドリフトメトリクスの測定と統一のためのマルチモーダル方法論(3)医療画像AIの監視の課題と解決への新たな洞察(4)オープンソースツールの作成により,他者が自身のワークフローやシナリオを容易に実行できるようにする。
この研究は、動的医療環境における継続的医療画像AIモデルモニタリングに関連する翻訳ギャップに対処するために重要な意味を持つ。
関連論文リスト
- Scalable Drift Monitoring in Medical Imaging AI [37.1899538374058]
我々は,スケーラブルなドリフトモニタリングのための拡張フレームワークであるMCC+を開発した。
それは、医療画像AIモデルのためのリアルタイムドリフト検出を導入したCheXstrayフレームワークの上に構築されている。
MMC+は、継続的パフォーマンス監視の信頼性と費用対効果を提供する。
論文 参考訳(メタデータ) (2024-10-17T02:57:35Z) - MMA-DFER: MultiModal Adaptation of unimodal models for Dynamic Facial Expression Recognition in-the-wild [81.32127423981426]
実世界のアプリケーションでは,音声およびビデオデータに基づくマルチモーダル感情認識が重要である。
近年の手法は、強力なマルチモーダルエンコーダの事前学習に自己教師付き学習(SSL)の進歩を活用することに重点を置いている。
SSL-pre-trained disimodal encoders を用いて,この問題に対する異なる視点とマルチモーダル DFER の性能向上について検討する。
論文 参考訳(メタデータ) (2024-04-13T13:39:26Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - VISION-MAE: A Foundation Model for Medical Image Segmentation and
Classification [36.8105960525233]
医用画像に特化して設計された新しい基礎モデルVISION-MAEを提案する。
VISION-MAEは、様々なモダリティから250万枚の未ラベル画像のデータセットでトレーニングされている。
その後、明示的なラベルを使って分類とセグメンテーションのタスクに適応する。
論文 参考訳(メタデータ) (2024-02-01T21:45:12Z) - BenchMD: A Benchmark for Unified Learning on Medical Images and Sensors [8.695342954247606]
アーキテクチャやトレーニング技術を含む,統一的でモダリティに依存しない手法が,さまざまな医療タスクでどのように機能するかをテストするベンチマークであるBenchMDを提示する。
その結果,統一的な学習手法がすべてのモダリティに対して高い性能を達成できないことが示され,ベンチマークに十分な改善の余地が残されている。
論文 参考訳(メタデータ) (2023-04-17T17:59:26Z) - Robust and Efficient Medical Imaging with Self-Supervision [80.62711706785834]
医用画像AIの堅牢性とデータ効率を向上させるための統一表現学習戦略であるREMEDISを提案する。
様々な医療画像タスクを研究し, 振り返りデータを用いて3つの現実的な応用シナリオをシミュレートする。
論文 参考訳(メタデータ) (2022-05-19T17:34:18Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - MMLN: Leveraging Domain Knowledge for Multimodal Diagnosis [10.133715767542386]
肺疾患診断のための知識駆動型およびデータ駆動型フレームワークを提案する。
本研究は, 臨床医学ガイドラインに従って診断規則を定式化し, テキストデータから規則の重みを学習する。
テキストと画像データからなるマルチモーダル融合は、肺疾患の限界確率を推定するために設計されている。
論文 参考訳(メタデータ) (2022-02-09T04:12:30Z) - Cross-Modal Information Maximization for Medical Imaging: CMIM [62.28852442561818]
病院では、同じ情報を異なるモダリティの下で利用できるようにする特定の情報システムにデータがサイロ化される。
これは、テスト時に常に利用できないかもしれない同じ情報の複数のビューを列車で取得し、使用するためのユニークな機会を提供する。
テスト時にモダリティの低下に耐性を持つマルチモーダル入力の優れた表現を学習することで、利用可能なデータを最大限活用する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T20:05:35Z) - Universal Model for Multi-Domain Medical Image Retrieval [88.67940265012638]
医用画像検索(MIR)は、医師が類似した患者のデータを素早く見つけるのに役立つ。
MIRはデジタル画像モダリティの多用により、ますます役に立ちつつある。
しかし、病院における様々なデジタル画像モダリティの人気もまた、MIRにいくつかの課題をもたらしている。
論文 参考訳(メタデータ) (2020-07-14T23:22:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。