論文の概要: QuickDraw: Fast Visualization, Analysis and Active Learning for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2503.09885v1
- Date: Wed, 12 Mar 2025 22:53:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:50:59.241668
- Title: QuickDraw: Fast Visualization, Analysis and Active Learning for Medical Image Segmentation
- Title(参考訳): QuickDraw: 医療画像セグメンテーションのための高速可視化、分析、アクティブラーニング
- Authors: Daniel Syomichev, Padmini Gopinath, Guang-Lin Wei, Eric Chang, Ian Gordon, Amanuel Seifu, Rahul Pemmaraju, Neehar Peri, James Purtilo,
- Abstract要約: 医用画像の可視化と解析のためのオープンソースフレームワークQuickDrawを提案する。
当社のツールでは,DICOM画像をアップロードし,市販モデルを実行して3次元セグメンテーションマスクを生成することができる。
QuickDrawは、手動でCTスキャンを4時間から6分に分割する時間を短縮し、機械学習支援セグメンテーション時間を以前の作業と比べて10%短縮する。
- 参考スコア(独自算出の注目度): 3.310630646293015
- License:
- Abstract: Analyzing CT scans, MRIs and X-rays is pivotal in diagnosing and treating diseases. However, detecting and identifying abnormalities from such medical images is a time-intensive process that requires expert analysis and is prone to interobserver variability. To mitigate such issues, machine learning-based models have been introduced to automate and significantly reduce the cost of image segmentation. Despite significant advances in medical image analysis in recent years, many of the latest models are never applied in clinical settings because state-of-the-art models do not easily interface with existing medical image viewers. To address these limitations, we propose QuickDraw, an open-source framework for medical image visualization and analysis that allows users to upload DICOM images and run off-the-shelf models to generate 3D segmentation masks. In addition, our tool allows users to edit, export, and evaluate segmentation masks to iteratively improve state-of-the-art models through active learning. In this paper, we detail the design of our tool and present survey results that highlight the usability of our software. Notably, we find that QuickDraw reduces the time to manually segment a CT scan from four hours to six minutes and reduces machine learning-assisted segmentation time by 10\% compared to prior work. Our code and documentation are available at https://github.com/qd-seg/quickdraw
- Abstract(参考訳): CTスキャン、MRI、X線分析は、疾患の診断と治療において重要である。
しかし、そのような医用画像から異常を検出し、識別することは、専門的な分析を必要とする時間集約的なプロセスであり、サーバ間変動が生じる傾向にある。
このような問題を緩和するため、画像分割の自動化と大幅なコスト削減のために機械学習ベースのモデルが導入されている。
近年の医用画像解析の進歩にもかかわらず、最新のモデルの多くは、既存の医用画像ビューアと簡単には接続できないため、臨床環境では適用されない。
このような制約に対処するため,我々は,DICOM画像をアップロードし,市販のモデルを実行して3Dセグメンテーションマスクを生成する,医療画像可視化と分析のためのオープンソースのフレームワークであるQuickDrawを提案する。
さらに,本ツールでは,アクティブな学習を通じてセグメンテーションマスクを編集,エクスポート,評価することで,最先端モデルの改善を反復的に行うことができる。
本稿では,ツールの設計について詳述するとともに,ソフトウェアの利用性を明らかにする調査結果について述べる。
特に、QuickDrawは、手動でCTスキャンを4時間から6分に分割する時間を短縮し、機械学習支援セグメンテーション時間を従来の作業に比べて10%削減する。
私たちのコードとドキュメントはhttps://github.com/qd-seg/quickdrawで公開されています。
関連論文リスト
- Unlocking the Power of Spatial and Temporal Information in Medical Multimodal Pre-training [99.2891802841936]
我々は,空間的・時間的微粒なモデリングのためのMed-STフレームワークを提案する。
空間モデリングでは、Med-STはMixture of View Expert (MoVE)アーキテクチャを使用して、正面と横の両方のビューから異なる視覚的特徴を統合する。
時間的モデリングのために,フォワードマッピング分類 (FMC) とリバースマッピング回帰 (RMR) による新たな双方向サイクル整合性目標を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:15:09Z) - Modular Deep Active Learning Framework for Image Annotation: A Technical Report for the Ophthalmo-AI Project [1.7325492987380366]
MedDeepCyleALは、完全なアクティブラーニングサイクルを実装するエンドツーエンドフレームワークである。
研究者に、採用したいディープラーニングモデルの種類を選択する柔軟性を提供する。
MedDeepCyleALはどんな画像データにも適用可能ですが、本プロジェクトでは特に眼科データに適用しています。
論文 参考訳(メタデータ) (2024-03-22T11:53:03Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Improving Chest X-Ray Classification by RNN-based Patient Monitoring [0.34998703934432673]
我々は、診断に関する情報がCNNに基づく画像分類モデルを改善する方法について分析する。
追加の患者履歴情報に基づいてトレーニングされたモデルが、情報のないトレーニングを受けたモデルよりも有意なマージンで優れていることを示す。
論文 参考訳(メタデータ) (2022-10-28T11:47:15Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Morphology-Aware Interactive Keypoint Estimation [32.52024944963992]
医学的画像に基づく診断は、しばしば解剖学的キーポイントのマニュアルアノテーションを含む。
本稿では,ユーザインタラクションシステムを通じて解剖学的キーポイントを自動的に検出し,精査する,新しいディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-15T09:27:14Z) - Cross Chest Graph for Disease Diagnosis with Structural Relational
Reasoning [2.7148274921314615]
X線画像のコンピュータ診断において位置病変は重要である。
一般に弱教師付き手法はX線像の特性を考慮できなかった。
自動病変検出の性能を向上させるCross-chest Graph (CCG)を提案する。
論文 参考訳(メタデータ) (2021-01-22T08:24:04Z) - Convolutional-LSTM for Multi-Image to Single Output Medical Prediction [55.41644538483948]
発展途上国の一般的なシナリオは、複数の理由からボリュームメタデータが失われることである。
ヒトの診断過程を模倣したマルチイメージから単一診断モデルを得ることが可能である。
論文 参考訳(メタデータ) (2020-10-20T04:30:09Z) - Going to Extremes: Weakly Supervised Medical Image Segmentation [12.700841704699615]
セグメンテーションモデルをトレーニングするために、極端点クリックという形で最小限のユーザインタラクションを使うことを提案する。
ランダムウォーカアルゴリズムを利用した極端点に基づいて初期セグメンテーションを生成する。
この初期セグメンテーションは、完全な畳み込みネットワークを訓練するためにノイズの多い監視信号として使用される。
論文 参考訳(メタデータ) (2020-09-25T00:28:10Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - Searching for Efficient Architecture for Instrument Segmentation in
Robotic Surgery [58.63306322525082]
ほとんどのアプリケーションは、高解像度の外科画像の正確なリアルタイムセグメンテーションに依存している。
我々は,高解像度画像のリアルタイム推論を行うために調整された,軽量で高効率なディープ残差アーキテクチャを設計する。
論文 参考訳(メタデータ) (2020-07-08T21:38:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。