論文の概要: MUVF-YOLOX: A Multi-modal Ultrasound Video Fusion Network for Renal
Tumor Diagnosis
- arxiv url: http://arxiv.org/abs/2307.07807v1
- Date: Sat, 15 Jul 2023 14:15:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 17:48:54.750338
- Title: MUVF-YOLOX: A Multi-modal Ultrasound Video Fusion Network for Renal
Tumor Diagnosis
- Title(参考訳): MUVF-YOLOX : 腎腫瘍診断のための多モード超音波ビデオ融合ネットワーク
- Authors: Junyu Li, Han Huang, Dong Ni, Wufeng Xue, Dongmei Zhu, Jun Cheng
- Abstract要約: 腎腫瘍診断のためのマルチモーダル機能融合とビデオ分類を効果的に行うことのできる,新しいマルチモーダル超音波ビデオ融合ネットワークを提案する。
マルチセンタデータセットによる実験結果から,提案手法は単一モードモデルと競合する手法よりも優れていた。
- 参考スコア(独自算出の注目度): 10.452919030855796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Early diagnosis of renal cancer can greatly improve the survival rate of
patients. Contrast-enhanced ultrasound (CEUS) is a cost-effective and
non-invasive imaging technique and has become more and more frequently used for
renal tumor diagnosis. However, the classification of benign and malignant
renal tumors can still be very challenging due to the highly heterogeneous
appearance of cancer and imaging artifacts. Our aim is to detect and classify
renal tumors by integrating B-mode and CEUS-mode ultrasound videos. To this
end, we propose a novel multi-modal ultrasound video fusion network that can
effectively perform multi-modal feature fusion and video classification for
renal tumor diagnosis. The attention-based multi-modal fusion module uses
cross-attention and self-attention to extract modality-invariant features and
modality-specific features in parallel. In addition, we design an object-level
temporal aggregation (OTA) module that can automatically filter low-quality
features and efficiently integrate temporal information from multiple frames to
improve the accuracy of tumor diagnosis. Experimental results on a multicenter
dataset show that the proposed framework outperforms the single-modal models
and the competing methods. Furthermore, our OTA module achieves higher
classification accuracy than the frame-level predictions. Our code is available
at \url{https://github.com/JeunyuLi/MUAF}.
- Abstract(参考訳): 腎癌の早期診断は、患者の生存率を大幅に向上させる。
造影超音波(ceus)はコスト効率が高く非侵襲的な画像診断技術であり,腎腫瘍の診断に多用されている。
しかし, 良性および悪性の腎腫瘍の分類は, 癌や画像所見の高度に異質な出現のため, いまだに困難である。
本研究の目的は,BモードとCEUSモード超音波を併用した腎腫瘍の検出と分類である。
そこで本研究では, 腎腫瘍診断のためのマルチモーダル機能融合とビデオ分類を効果的に行うことのできる, マルチモーダル超音波ビデオ融合ネットワークを提案する。
注意に基づくマルチモーダル融合モジュールは、クロスアテンションと自己アテンションを使用して、モダリティ不変の特徴とモダリティ固有特徴を並列に抽出する。
さらに,低品質な特徴を自動的にフィルタリングし,複数のフレームから時間情報を効率よく統合し,腫瘍診断の精度を向上させるオブジェクトレベル時間アグリゲーション(OTA)モジュールを設計する。
マルチセンタデータセットによる実験結果から,提案手法は単一モードモデルと競合する手法よりも優れていた。
さらに,OTAモジュールはフレームレベルの予測よりも高い分類精度を実現する。
我々のコードは \url{https://github.com/JeunyuLi/MUAF} で入手できる。
関連論文リスト
- PINN-EMFNet: PINN-based and Enhanced Multi-Scale Feature Fusion Network for Breast Ultrasound Images Segmentation [5.246262946799736]
本研究では,PINNに基づくマルチスケール機能融合ネットワークを提案する。
ネットワークは、いくつかの構造的革新を通じて、効率的に統合し、グローバルにマルチスケールの機能をモデル化する。
このデコーダ部では,マルチスケール・フィーチャー・リファインメント・デコーダが採用され,マルチスケール・スーパービジョン機構と修正モジュールを組み合わせることで,セグメンテーション精度と適応性を大幅に向上する。
論文 参考訳(メタデータ) (2024-12-22T09:16:00Z) - A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
ディープニューラルネットワークは、アンダーサンプル計測から高忠実度画像を再構成する大きな可能性を示している。
我々のモデルは、離散化に依存しないアーキテクチャであるニューラル演算子に基づいている。
我々の推論速度は拡散法よりも1,400倍速い。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Towards a Benchmark for Colorectal Cancer Segmentation in Endorectal Ultrasound Videos: Dataset and Model Development [59.74920439478643]
本稿では,多様なERUSシナリオをカバーする最初のベンチマークデータセットを収集し,注釈付けする。
ERUS-10Kデータセットは77の動画と10,000の高解像度アノテートフレームで構成されています。
本稿では,ASTR (Adaptive Sparse-context TRansformer) という大腸癌セグメンテーションのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:04:42Z) - MMFusion: Multi-modality Diffusion Model for Lymph Node Metastasis Diagnosis in Esophageal Cancer [13.74067035373274]
CT画像に基づくリンパ節転移診断のためのマルチモーダルな不均一グラフに基づく条件付き特徴誘導拡散モデルを提案する。
本稿では, 悪性腫瘍とリンパ節像の関連性, 優先性を明らかにすることを目的として, マスク付き関係表現学習戦略を提案する。
論文 参考訳(メタデータ) (2024-05-15T17:52:00Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - RCA-IUnet: A residual cross-spatial attention guided inception U-Net
model for tumor segmentation in breast ultrasound imaging [0.6091702876917281]
本稿では,腫瘍セグメンテーションのトレーニングパラメータが最小限に抑えられたRCA-IUnetモデルについて紹介する。
RCA-IUnetモデルは、U-Netトポロジに従い、奥行きの深い分離可能な畳み込みとハイブリッドプール層を持つ。
無関係な特徴を抑え、対象構造に焦点を合わせるために、空間横断型アテンションフィルタが加えられる。
論文 参考訳(メタデータ) (2021-08-05T10:35:06Z) - Learned super resolution ultrasound for improved breast lesion
characterization [52.77024349608834]
超高分解能超音波局在顕微鏡は毛細血管レベルでの微小血管のイメージングを可能にする。
この作業では、これらの課題に対処するために、信号構造を効果的に活用するディープニューラルネットワークアーキテクチャを使用します。
トレーニングしたネットワークを利用することで,従来のPSF知識を必要とせず,UCAの分離性も必要とせず,短時間で微小血管構造を復元する。
論文 参考訳(メタデータ) (2021-07-12T09:04:20Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z) - Auto-weighting for Breast Cancer Classification in Multimodal Ultrasound [0.0]
良性乳房結節と悪性乳腺結節を鑑別する4種類の超音波検査法を提案する。
分類精度を向上させるため,新しいマルチモーダルネットワークが提案されている。
その結果,提案手法の有効性を示す95.4%の分類精度が得られた。
論文 参考訳(メタデータ) (2020-08-08T03:42:00Z) - Spectral-Spatial Recurrent-Convolutional Networks for In-Vivo
Hyperspectral Tumor Type Classification [49.32653090178743]
ハイパースペクトル画像とディープラーニングを用いたin-vivo腫瘍型分類の可能性を示した。
我々の最良のモデルは76.3%のAUCを達成し、従来の学習手法とディープラーニング手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-02T12:00:53Z) - A Novel and Efficient Tumor Detection Framework for Pancreatic Cancer
via CT Images [21.627818410241552]
本稿では,新しい膵腫瘍検出フレームワークを提案する。
提案手法のコントリビューションは,Augmented Feature Pyramid Network,Self-Adaptive Feature Fusion,Dependencies Computation Moduleの3つのコンポーネントから構成される。
実験により,AUCの0.9455による検出において,他の最先端手法よりも優れた性能が得られた。
論文 参考訳(メタデータ) (2020-02-11T15:48:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。