論文の概要: Modular Deep Active Learning Framework for Image Annotation: A Technical Report for the Ophthalmo-AI Project
- arxiv url: http://arxiv.org/abs/2403.15143v1
- Date: Fri, 22 Mar 2024 11:53:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 17:38:51.134843
- Title: Modular Deep Active Learning Framework for Image Annotation: A Technical Report for the Ophthalmo-AI Project
- Title(参考訳): 画像アノテーションのためのモジュール型深部能動学習フレームワーク:眼科AIプロジェクトのための技術報告
- Authors: Md Abdul Kadir, Hasan Md Tusfiqur Alam, Pascale Maul, Hans-Jürgen Profitlich, Moritz Wolf, Daniel Sonntag,
- Abstract要約: MedDeepCyleALは、完全なアクティブラーニングサイクルを実装するエンドツーエンドフレームワークである。
研究者に、採用したいディープラーニングモデルの種類を選択する柔軟性を提供する。
MedDeepCyleALはどんな画像データにも適用可能ですが、本プロジェクトでは特に眼科データに適用しています。
- 参考スコア(独自算出の注目度): 1.7325492987380366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image annotation is one of the most essential tasks for guaranteeing proper treatment for patients and tracking progress over the course of therapy in the field of medical imaging and disease diagnosis. However, manually annotating a lot of 2D and 3D imaging data can be extremely tedious. Deep Learning (DL) based segmentation algorithms have completely transformed this process and made it possible to automate image segmentation. By accurately segmenting medical images, these algorithms can greatly minimize the time and effort necessary for manual annotation. Additionally, by incorporating Active Learning (AL) methods, these segmentation algorithms can perform far more effectively with a smaller amount of ground truth data. We introduce MedDeepCyleAL, an end-to-end framework implementing the complete AL cycle. It provides researchers with the flexibility to choose the type of deep learning model they wish to employ and includes an annotation tool that supports the classification and segmentation of medical images. The user-friendly interface allows for easy alteration of the AL and DL model settings through a configuration file, requiring no prior programming experience. While MedDeepCyleAL can be applied to any kind of image data, we have specifically applied it to ophthalmology data in this project.
- Abstract(参考訳): 画像アノテーションは、患者の適切な治療を保証し、医療画像診断や疾患診断の分野で治療の経過を追跡するための最も重要なタスクの1つである。
しかし、手動で大量の2Dおよび3D画像データに注釈を付けるのは極めて面倒である。
ディープラーニング(DL)ベースのセグメンテーションアルゴリズムは、このプロセスを完全に変換し、画像セグメンテーションの自動化を可能にした。
医用画像の正確なセグメント化によって、これらのアルゴリズムは手動のアノテーションに必要な時間と労力を大幅に最小化することができる。
さらに、アクティブラーニング(AL)手法を取り入れることで、これらのセグメンテーションアルゴリズムはより少ない基底真理データではるかに効果的に実行できる。
完全なALサイクルを実装するエンドツーエンドフレームワークであるMedDeepCyleALを紹介します。
研究者に、採用したいディープラーニングモデルの種類を選択する柔軟性を提供し、医療画像の分類とセグメンテーションをサポートするアノテーションツールを含む。
ユーザフレンドリーなインターフェースは、設定ファイルを通じてALとDLモデルの設定を簡単に変更することができ、事前のプログラミング経験を必要としない。
MedDeepCyleALはどんな画像データにも適用可能ですが、本プロジェクトでは特に眼科データに適用しています。
関連論文リスト
- Coupling AI and Citizen Science in Creation of Enhanced Training Dataset for Medical Image Segmentation [3.7274206780843477]
我々は、AIとクラウドソーシングを組み合わせた堅牢で汎用的なフレームワークを導入し、医療画像データセットの品質と量を改善する。
当社のアプローチでは,多様なクラウドアノテータのグループによる医療画像のラベル付けを効率的に行うことができる,ユーザフレンドリーなオンラインプラットフォームを活用している。
我々は、生成AIモデルであるpix2pixGANを使用して、リアルな形態的特徴をキャプチャする合成画像を用いてトレーニングデータセットを拡張する。
論文 参考訳(メタデータ) (2024-09-04T21:22:54Z) - Improving Segment Anything on the Fly: Auxiliary Online Learning and Adaptive Fusion for Medical Image Segmentation [52.172885882728174]
医療画像の文脈では、SAMがそのセグメンテーション予測を生成した後、人間の専門家が特定のテストサンプルのセグメンテーションを修正することは珍しくない。
我々は、オンライン機械学習の利点を活用して、テスト期間中にSegment Anything(SA)を強化する新しいアプローチを導入する。
医用画像におけるSAのセグメンテーション品質を改善することを目的として,オンライン学習のための修正アノテーションを用いた。
論文 参考訳(メタデータ) (2024-06-03T03:16:25Z) - Plaintext-Free Deep Learning for Privacy-Preserving Medical Image Analysis via Frequency Information Embedding [9.192156293063414]
本稿では,サロゲート画像を解析に用いる新しいフレームワークを提案する。
このフレームワークは、周波数領域交換スタイル融合(FESF)と呼ばれる。
本フレームワークは,医療画像のプライバシを効果的に保ち,DLモデルの診断精度を比較的高いレベルで維持し,各種データセットやDLベースモデルに対して有効性を示す。
論文 参考訳(メタデータ) (2024-03-25T06:56:38Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - PCDAL: A Perturbation Consistency-Driven Active Learning Approach for
Medical Image Segmentation and Classification [12.560273908522714]
監視された学習は、医用画像のアプリケーションを取得するのに費用がかかり、時間がかかり、実用的でない、大規模な注釈付きデータに大きく依存している。
アクティブラーニング(AL)手法は、アノテーションのコストを削減するために、自然な画像分類タスクに広く応用されている。
本稿では,2次元医用画像分類,セグメンテーション,および3次元医用画像分割タスクに同時に適用可能なALベースの手法を提案する。
論文 参考訳(メタデータ) (2023-06-29T13:11:46Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Understanding the Tricks of Deep Learning in Medical Image Segmentation:
Challenges and Future Directions [66.40971096248946]
本稿では,モデル実装の異なるフェーズに対して,MedISegの一連のトリックを収集する。
本稿では,これらの手法の有効性を一貫したベースライン上で実験的に検討する。
私たちはまた、それぞれのコンポーネントがプラグインとプレイの利点を持つ強力なMedISegリポジトリをオープンソースにしました。
論文 参考訳(メタデータ) (2022-09-21T12:30:05Z) - Positional Contrastive Learning for Volumetric Medical Image
Segmentation [13.086140606803408]
コントラストデータペアを生成するための新しい位置コントラスト学習フレームワークを提案する。
提案手法は,半教師付き設定と移動学習の両方において既存の手法と比較して,セグメンテーション性能を大幅に向上させることができる。
論文 参考訳(メタデータ) (2021-06-16T22:15:28Z) - Semantic segmentation of multispectral photoacoustic images using deep
learning [53.65837038435433]
光音響イメージングは医療に革命をもたらす可能性がある。
この技術の臨床的翻訳には、高次元取得したデータを臨床的に関連性があり解釈可能な情報に変換する必要がある。
本稿では,多スペクトル光音響画像のセマンティックセグメンテーションに対する深層学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-20T09:33:55Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - Suggestive Annotation of Brain Tumour Images with Gradient-guided
Sampling [14.092503407739422]
本稿では,脳腫瘍画像に対する効率的なアノテーションフレームワークを提案する。
実験によると、BraTS 2019データセットから、わずか19%の注釈付き患者スキャンでセグメンテーションモデルをトレーニングすることは、腫瘍セグメンテーションタスク全体のデータセット上でモデルをトレーニングするのと同等のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2020-06-26T13:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。