論文の概要: FocusMAE: Gallbladder Cancer Detection from Ultrasound Videos with Focused Masked Autoencoders
- arxiv url: http://arxiv.org/abs/2403.08848v2
- Date: Fri, 29 Mar 2024 21:22:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-02 13:44:58.933719
- Title: FocusMAE: Gallbladder Cancer Detection from Ultrasound Videos with Focused Masked Autoencoders
- Title(参考訳): FocusMAE:集束型オートエンコーダを用いた超音波による胆嚢癌検出
- Authors: Soumen Basu, Mayuna Gupta, Chetan Madan, Pankaj Gupta, Chetan Arora,
- Abstract要約: 本研究は,ビデオベース検出へのパラダイムシフトを提唱する。
高情報領域からのマスキングトークンの選択を体系的にバイアスするFocusMAEという新しい設計を提案する。
我々は,現在の画像ベースSOTA-RadFormerで84%,ビデオベースSOTA-AdaMAEで94.7%,GBC検出問題で96.4%の最先端(SOTA)精度を報告した。
- 参考スコア(独自算出の注目度): 7.76606060260265
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years, automated Gallbladder Cancer (GBC) detection has gained the attention of researchers. Current state-of-the-art (SOTA) methodologies relying on ultrasound sonography (US) images exhibit limited generalization, emphasizing the need for transformative approaches. We observe that individual US frames may lack sufficient information to capture disease manifestation. This study advocates for a paradigm shift towards video-based GBC detection, leveraging the inherent advantages of spatiotemporal representations. Employing the Masked Autoencoder (MAE) for representation learning, we address shortcomings in conventional image-based methods. We propose a novel design called FocusMAE to systematically bias the selection of masking tokens from high-information regions, fostering a more refined representation of malignancy. Additionally, we contribute the most extensive US video dataset for GBC detection. We also note that, this is the first study on US video-based GBC detection. We validate the proposed methods on the curated dataset, and report a new state-of-the-art (SOTA) accuracy of 96.4% for the GBC detection problem, against an accuracy of 84% by current Image-based SOTA - GBCNet, and RadFormer, and 94.7% by Video-based SOTA - AdaMAE. We further demonstrate the generality of the proposed FocusMAE on a public CT-based Covid detection dataset, reporting an improvement in accuracy by 3.3% over current baselines. The source code and pretrained models are available at: https://gbc-iitd.github.io/focusmae
- Abstract(参考訳): 近年,胆嚢癌(GBC)の自動検出が研究者の注目を集めている。
超音波ソノグラフィー(US)画像を利用したSOTA法は,変換的アプローチの必要性を強調しつつ,限定的な一般化を示している。
我々は、個々のアメリカのフレームには、病気の徴候を捉えるのに十分な情報がないことを観察する。
本研究は、時空間表現の固有の利点を生かして、ビデオベースGBC検出へのパラダイムシフトを提唱する。
Masked Autoencoder (MAE) を表現学習に適用し、従来の画像ベース手法の欠点に対処する。
本研究では,高情報領域からのマスキングトークンの選択を体系的にバイアスし,より洗練された悪性度表現を育成するFocusMAEという新しい設計を提案する。
さらに、GBC検出のための最も広範な米国ビデオデータセットをコントリビュートする。
また、これは米国におけるビデオベースのGBC検出に関する最初の研究である。
提案手法の有効性を検証し,既存の画像ベースSOTA - GBCNet と RadFormer では84%,ビデオベース SOTA - AdaMAE では94.7% の精度で,GBC 検出問題に対して96.4% の新たな最先端SOTA (State-of-the-art) 精度を報告した。
提案したFocusMAEの公共CTに基づくCovid検出データセットの汎用性をさらに実証し、現在のベースラインよりも精度が3.3%向上したことを報告した。
ソースコードと事前訓練されたモデルは以下の通りである。
関連論文リスト
- D-MASTER: Mask Annealed Transformer for Unsupervised Domain Adaptation in Breast Cancer Detection from Mammograms [5.00208619516796]
乳がん検診におけるUnsupervised Domain Adaptation (uda) の問題点に着目した。
近年の進歩により、マスク付き画像モデリングがUDAの頑健な前提課題となっていることが示されている。
クロスドメインBCDMに適用すると、これらのテクニックは、質量、非対称性、微小石灰化などの乳房異常に悩まされる。
これは多くの場合、画像当たりの偽陽性(FPI)が増加し、通常そのようなテクニックをブートストラップするために使用される擬似ラベルの顕著なノイズが生じる。
論文 参考訳(メタデータ) (2024-07-09T06:35:17Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Gall Bladder Cancer Detection from US Images with Only Image Level
Labels [7.89876701812201]
画像レベルラベルのみを用いた胆嚢癌(GBC)の検出に着目する。
GBC検出のための標準画像分類モデルを訓練することは困難である。
トレーニング用にバウンディングボックスアノテーションは使用できないため、弱い教師付きオブジェクト検出として問題に対処する。
論文 参考訳(メタデータ) (2023-09-11T06:37:12Z) - Self-Supervised Masked Convolutional Transformer Block for Anomaly
Detection [122.4894940892536]
本稿では, 自己監督型マスク型畳み込み変圧器ブロック (SSMCTB) について述べる。
本研究では,従来の自己教師型予測畳み込み抑止ブロック(SSPCAB)を3次元マスク付き畳み込み層,チャンネルワイドアテンション用トランスフォーマー,およびハマーロスに基づく新たな自己教師型目標を用いて拡張する。
論文 参考訳(メタデータ) (2022-09-25T04:56:10Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Surpassing the Human Accuracy: Detecting Gallbladder Cancer from USG
Images with Curriculum Learning [17.694219750908413]
超音波(USG)画像からの胆嚢癌検出のためのCNNモデルの可能性について検討する。
USGは低コストとアクセシビリティのため、GB病で最も一般的な診断法である。
我々はGBCNetを提案し,その課題に対処する。
論文 参考訳(メタデータ) (2022-04-25T04:43:33Z) - Explainable multiple abnormality classification of chest CT volumes with
AxialNet and HiResCAM [89.2175350956813]
本稿では,容積医用画像における多変量分類の課題について紹介する。
本稿では,複数のインスタンス学習型畳み込みニューラルネットワークであるAxialNetを提案する。
そして、HiResCAMと3D許容領域を利用した新しいマスクロスにより、モデルの学習を改善することを目指す。
論文 参考訳(メタデータ) (2021-11-24T01:14:33Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Ensemble of CNN classifiers using Sugeno Fuzzy Integral Technique for
Cervical Cytology Image Classification [1.6986898305640261]
頸がんの単細胞画像とスライド画像の分類を完全自動化するコンピュータ支援診断ツールを提案する。
我々は、Sugeno Fuzzy Integralを使用して、Inception v3、DenseNet-161、ResNet-34という3つの人気のあるディープラーニングモデルの意思決定スコアをアンサンブルする。
論文 参考訳(メタデータ) (2021-08-21T08:41:41Z) - CutPaste: Self-Supervised Learning for Anomaly Detection and
Localization [59.719925639875036]
通常のトレーニングデータのみを用いて異常検知器を構築するためのフレームワークを提案する。
まず、自己教師付き深層表現を学習し、学習した表現の上に生成的1クラス分類器を構築する。
MVTec異常検出データセットに関する実証研究は,提案アルゴリズムが実世界の様々な欠陥を検出可能であることを実証している。
論文 参考訳(メタデータ) (2021-04-08T19:04:55Z) - Learning from Suspected Target: Bootstrapping Performance for Breast
Cancer Detection in Mammography [6.323318523772466]
対象領域の選択と訓練を行う新しいサンプリング手順とともに,新しいトップ可能性損失を導入する。
まず,提案手法をプライベートな高密度マンモグラフィーデータセット上で検証する。
以上の結果から,本手法は偽陽性率を大幅に低減し,質量型癌検出では0.25倍の特異性を示した。
論文 参考訳(メタデータ) (2020-03-01T09:04:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。