論文の概要: MUVF-YOLOX: A Multi-modal Ultrasound Video Fusion Network for Renal
Tumor Diagnosis
- arxiv url: http://arxiv.org/abs/2307.07807v1
- Date: Sat, 15 Jul 2023 14:15:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 17:48:54.750338
- Title: MUVF-YOLOX: A Multi-modal Ultrasound Video Fusion Network for Renal
Tumor Diagnosis
- Title(参考訳): MUVF-YOLOX : 腎腫瘍診断のための多モード超音波ビデオ融合ネットワーク
- Authors: Junyu Li, Han Huang, Dong Ni, Wufeng Xue, Dongmei Zhu, Jun Cheng
- Abstract要約: 腎腫瘍診断のためのマルチモーダル機能融合とビデオ分類を効果的に行うことのできる,新しいマルチモーダル超音波ビデオ融合ネットワークを提案する。
マルチセンタデータセットによる実験結果から,提案手法は単一モードモデルと競合する手法よりも優れていた。
- 参考スコア(独自算出の注目度): 10.452919030855796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Early diagnosis of renal cancer can greatly improve the survival rate of
patients. Contrast-enhanced ultrasound (CEUS) is a cost-effective and
non-invasive imaging technique and has become more and more frequently used for
renal tumor diagnosis. However, the classification of benign and malignant
renal tumors can still be very challenging due to the highly heterogeneous
appearance of cancer and imaging artifacts. Our aim is to detect and classify
renal tumors by integrating B-mode and CEUS-mode ultrasound videos. To this
end, we propose a novel multi-modal ultrasound video fusion network that can
effectively perform multi-modal feature fusion and video classification for
renal tumor diagnosis. The attention-based multi-modal fusion module uses
cross-attention and self-attention to extract modality-invariant features and
modality-specific features in parallel. In addition, we design an object-level
temporal aggregation (OTA) module that can automatically filter low-quality
features and efficiently integrate temporal information from multiple frames to
improve the accuracy of tumor diagnosis. Experimental results on a multicenter
dataset show that the proposed framework outperforms the single-modal models
and the competing methods. Furthermore, our OTA module achieves higher
classification accuracy than the frame-level predictions. Our code is available
at \url{https://github.com/JeunyuLi/MUAF}.
- Abstract(参考訳): 腎癌の早期診断は、患者の生存率を大幅に向上させる。
造影超音波(ceus)はコスト効率が高く非侵襲的な画像診断技術であり,腎腫瘍の診断に多用されている。
しかし, 良性および悪性の腎腫瘍の分類は, 癌や画像所見の高度に異質な出現のため, いまだに困難である。
本研究の目的は,BモードとCEUSモード超音波を併用した腎腫瘍の検出と分類である。
そこで本研究では, 腎腫瘍診断のためのマルチモーダル機能融合とビデオ分類を効果的に行うことのできる, マルチモーダル超音波ビデオ融合ネットワークを提案する。
注意に基づくマルチモーダル融合モジュールは、クロスアテンションと自己アテンションを使用して、モダリティ不変の特徴とモダリティ固有特徴を並列に抽出する。
さらに,低品質な特徴を自動的にフィルタリングし,複数のフレームから時間情報を効率よく統合し,腫瘍診断の精度を向上させるオブジェクトレベル時間アグリゲーション(OTA)モジュールを設計する。
マルチセンタデータセットによる実験結果から,提案手法は単一モードモデルと競合する手法よりも優れていた。
さらに,OTAモジュールはフレームレベルの予測よりも高い分類精度を実現する。
我々のコードは \url{https://github.com/JeunyuLi/MUAF} で入手できる。
関連論文リスト
- MMFusion: Multi-modality Diffusion Model for Lymph Node Metastasis Diagnosis in Esophageal Cancer [13.74067035373274]
CT画像に基づくリンパ節転移診断のためのマルチモーダルな不均一グラフに基づく条件付き特徴誘導拡散モデルを提案する。
本稿では, 悪性腫瘍とリンパ節像の関連性, 優先性を明らかにすることを目的として, マスク付き関係表現学習戦略を提案する。
論文 参考訳(メタデータ) (2024-05-15T17:52:00Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - StRegA: Unsupervised Anomaly Detection in Brain MRIs using a Compact
Context-encoding Variational Autoencoder [48.2010192865749]
教師なし異常検出(UAD)は、健康な被験者の異常なデータセットからデータ分布を学習し、分布サンプルの抽出に応用することができる。
本研究では,コンテクストエンコーディング(context-encoding)VAE(ceVAE)モデルのコンパクトバージョンと,前処理と後処理のステップを組み合わせて,UADパイプライン(StRegA)を作成することを提案する。
提案したパイプラインは、BraTSデータセットのT2w画像と0.859$pm$0.112の腫瘍を検出しながら、Diceスコアが0.642$pm$0.101に達した。
論文 参考訳(メタデータ) (2022-01-31T14:27:35Z) - RCA-IUnet: A residual cross-spatial attention guided inception U-Net
model for tumor segmentation in breast ultrasound imaging [0.6091702876917281]
本稿では,腫瘍セグメンテーションのトレーニングパラメータが最小限に抑えられたRCA-IUnetモデルについて紹介する。
RCA-IUnetモデルは、U-Netトポロジに従い、奥行きの深い分離可能な畳み込みとハイブリッドプール層を持つ。
無関係な特徴を抑え、対象構造に焦点を合わせるために、空間横断型アテンションフィルタが加えられる。
論文 参考訳(メタデータ) (2021-08-05T10:35:06Z) - Modality-aware Mutual Learning for Multi-modal Medical Image
Segmentation [12.308579499188921]
肝臓がんは世界中で最も多いがんの1つである。
本稿では,マルチモーダルCT画像の統合による肝腫瘍切除の自動化に焦点をあてる。
そこで本研究では,肝腫瘍セグメント化を効果的かつ堅牢にするための新たな相互学習(ML)戦略を提案する。
論文 参考訳(メタデータ) (2021-07-21T02:24:31Z) - Learned super resolution ultrasound for improved breast lesion
characterization [52.77024349608834]
超高分解能超音波局在顕微鏡は毛細血管レベルでの微小血管のイメージングを可能にする。
この作業では、これらの課題に対処するために、信号構造を効果的に活用するディープニューラルネットワークアーキテクチャを使用します。
トレーニングしたネットワークを利用することで,従来のPSF知識を必要とせず,UCAの分離性も必要とせず,短時間で微小血管構造を復元する。
論文 参考訳(メタデータ) (2021-07-12T09:04:20Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Auto-weighting for Breast Cancer Classification in Multimodal Ultrasound [0.0]
良性乳房結節と悪性乳腺結節を鑑別する4種類の超音波検査法を提案する。
分類精度を向上させるため,新しいマルチモーダルネットワークが提案されている。
その結果,提案手法の有効性を示す95.4%の分類精度が得られた。
論文 参考訳(メタデータ) (2020-08-08T03:42:00Z) - Spectral-Spatial Recurrent-Convolutional Networks for In-Vivo
Hyperspectral Tumor Type Classification [49.32653090178743]
ハイパースペクトル画像とディープラーニングを用いたin-vivo腫瘍型分類の可能性を示した。
我々の最良のモデルは76.3%のAUCを達成し、従来の学習手法とディープラーニング手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-02T12:00:53Z) - A Novel and Efficient Tumor Detection Framework for Pancreatic Cancer
via CT Images [21.627818410241552]
本稿では,新しい膵腫瘍検出フレームワークを提案する。
提案手法のコントリビューションは,Augmented Feature Pyramid Network,Self-Adaptive Feature Fusion,Dependencies Computation Moduleの3つのコンポーネントから構成される。
実験により,AUCの0.9455による検出において,他の最先端手法よりも優れた性能が得られた。
論文 参考訳(メタデータ) (2020-02-11T15:48:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。