論文の概要: MedNNS: Supernet-based Medical Task-Adaptive Neural Network Search
- arxiv url: http://arxiv.org/abs/2504.15865v2
- Date: Wed, 23 Apr 2025 05:28:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.787579
- Title: MedNNS: Supernet-based Medical Task-Adaptive Neural Network Search
- Title(参考訳): MedNNS:スーパーネットベースの医療タスク適応ニューラルネットワーク検索
- Authors: Lotfi Abdelkrim Mecharbat, Ibrahim Almakky, Martin Takac, Mohammad Yaqub,
- Abstract要約: 医用画像アプリケーションのための最初のニューラルネットワーク検索フレームワークであるメディカルニューラルネットワークサーチ(MedNNS)を紹介する。
データセットとモデルをエンコードするメタスペースを構築します。
MedNNS は ImageNet の事前学習型 DL モデルと SOTA Neural Architecture Search (NAS) 手法の両方に優れていた。
- 参考スコア(独自算出の注目度): 0.8812173669205372
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep learning (DL) has achieved remarkable progress in the field of medical imaging. However, adapting DL models to medical tasks remains a significant challenge, primarily due to two key factors: (1) architecture selection, as different tasks necessitate specialized model designs, and (2) weight initialization, which directly impacts the convergence speed and final performance of the models. Although transfer learning from ImageNet is a widely adopted strategy, its effectiveness is constrained by the substantial differences between natural and medical images. To address these challenges, we introduce Medical Neural Network Search (MedNNS), the first Neural Network Search framework for medical imaging applications. MedNNS jointly optimizes architecture selection and weight initialization by constructing a meta-space that encodes datasets and models based on how well they perform together. We build this space using a Supernetwork-based approach, expanding the model zoo size by 51x times over previous state-of-the-art (SOTA) methods. Moreover, we introduce rank loss and Fr\'echet Inception Distance (FID) loss into the construction of the space to capture inter-model and inter-dataset relationships, thereby achieving more accurate alignment in the meta-space. Experimental results across multiple datasets demonstrate that MedNNS significantly outperforms both ImageNet pre-trained DL models and SOTA Neural Architecture Search (NAS) methods, achieving an average accuracy improvement of 1.7% across datasets while converging substantially faster. The code and the processed meta-space is available at https://github.com/BioMedIA-MBZUAI/MedNNS.
- Abstract(参考訳): 深層学習(DL)は医用画像の分野で大きな進歩を遂げている。
しかし, DLモデルを医療タスクに適用することは, (1) アーキテクチャの選択, 異なるタスクが特別なモデル設計を必要とすること, (2) モデルの収束速度と最終的な性能に直接影響を与える重み初期化という2つの主要な要因により, 依然として大きな課題である。
ImageNetからの転送学習は広く採用されている戦略であるが、その効果は自然画像と医療画像の実質的な違いによって制約されている。
これらの課題に対処するために、医用画像アプリケーションのための最初のニューラルネットワーク検索フレームワークであるメディカルニューラルネットワークサーチ(MedNNS)を紹介した。
MedNNSは、データセットとモデルをエンコードするメタデータ空間を構築することで、アーキテクチャの選択と重量の初期化を共同で最適化する。
この空間をスーパーネットワークベースのアプローチで構築し、従来のSOTA(State-of-the-art)手法よりも51倍の規模でモデル動物園のサイズを拡大する。
さらに、モデル間関係とデータセット間関係を捉えるために、空間の構成にランクロスとFr'echet Inception Distance(FID)ロスを導入し、メタ空間のより正確なアライメントを実現する。
複数のデータセットにわたる実験結果から、MedNNSはImageNet事前訓練されたDLモデルとSOTA Neural Architecture Search(NAS)メソッドの両方を著しく上回り、データセット全体の平均精度が1.7%向上し、より高速に収束することを示した。
コードはhttps://github.com/BioMedIA-MBzuAI/MedNNSで公開されている。
関連論文リスト
- Evaluating Pre-trained Convolutional Neural Networks and Foundation Models as Feature Extractors for Content-based Medical Image Retrieval [0.37478492878307323]
コンテンツベースの医用画像検索(CBMIR)は、画像の特徴に依存し、自動または半自動で抽出できる。
本研究では、よく知られた学習済み畳み込みニューラルネットワーク(CNN)と事前学習済み基礎モデルから、事前学習済み特徴抽出器を複数使用した。
以上の結果から,2次元データセットでは,基礎モデルの方がCNNよりも優れた性能が得られることがわかった。
画像サイズが大きくなると(特に2次元データセットの場合)性能が若干向上する一方、より小さい画像でも競争力のあるCBMIR性能が達成できることを確認した。
論文 参考訳(メタデータ) (2024-09-14T13:07:30Z) - A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [58.855741970337675]
ニューラルアーキテクチャサーチ(NAS)により、リサーチ者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - LiteNeXt: A Novel Lightweight ConvMixer-based Model with Self-embedding Representation Parallel for Medical Image Segmentation [2.0901574458380403]
医用画像分割のための軽量だが効率的な新しいモデル LiteNeXt を提案する。
このモデルは、少量のパラメータ (0.71M) とギガ浮動小数点演算 (0.42) でスクラッチから訓練されている。
Data Science Bowls、GlaS、ISIC2018、PH2、Sunnybrook、Lung X-rayといった公開データセットの実験は有望な結果を示している。
論文 参考訳(メタデータ) (2024-04-04T01:59:19Z) - Masked LoGoNet: Fast and Accurate 3D Image Analysis for Medical Domain [46.44049019428938]
我々はLoGoNetと呼ばれる新しいニューラルネットワークアーキテクチャを導入する。
LoGoNetは、LKA(Large Kernel Attention)とデュアルエンコーディング戦略を利用して、U字型アーキテクチャに新しい特徴抽出器を統合する。
大規模ラベル付きデータセットの欠如を補うために,3次元画像に適した新しいSSL方式を提案する。
論文 参考訳(メタデータ) (2024-02-09T05:06:58Z) - Predicting Infant Brain Connectivity with Federated Multi-Trajectory
GNNs using Scarce Data [54.55126643084341]
既存のディープラーニングソリューションには,3つの大きな制限がある。
我々はフェデレートグラフベースの多軌道進化ネットワークであるFedGmTE-Net++を紹介する。
フェデレーションの力を利用して、限られたデータセットを持つ多種多様な病院の地域学習を集約する。
論文 参考訳(メタデータ) (2024-01-01T10:20:01Z) - Connecting the Dots: Graph Neural Network Powered Ensemble and
Classification of Medical Images [0.0]
医療画像の深層学習は、大量のトレーニングデータを必要とするため、制限されている。
画像フォレスティング変換を用いて、画像を最適にスーパーピクセルに分割する。
これらのスーパーピクセルはその後、グラフ構造化データに変換され、特徴の巧妙な抽出と関係のモデリングを可能にする。
論文 参考訳(メタデータ) (2023-11-13T13:20:54Z) - DCP-NAS: Discrepant Child-Parent Neural Architecture Search for 1-bit
CNNs [53.82853297675979]
バイナリ重みとアクティベーションを備えた1ビット畳み込みニューラルネットワーク(CNN)は、リソース制限された組み込みデバイスの可能性を示している。
自然なアプローチの1つは、NASの計算とメモリコストを削減するために1ビットCNNを使用することである。
本稿では,1ビットCNNを効率的に探索するためにDCP-NAS(Disrepant Child-Parent Neural Architecture Search)を提案する。
論文 参考訳(メタデータ) (2023-06-27T11:28:29Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Recurrence With Correlation Network for Medical Image Registration [66.63200823918429]
本稿では,医療画像登録ネットワークであるRecurrence with correlation Network (RWCNet)について述べる。
これらの特徴により、2つの画像登録データセットにおける医用画像登録精度が向上することが実証された。
論文 参考訳(メタデータ) (2023-02-05T02:41:46Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Two layer Ensemble of Deep Learning Models for Medical Image
Segmentation [0.2699900017799093]
医用画像のセグメンテーションのための深層学習モデルの2層アンサンブルを提案する。
トレーニング画像の付加データとして、第1層の各モデルによって作成された各トレーニング画像画素の予測を用いる。
次に、各モデルが結合結果に異なる貢献をする重みに基づくスキームを用いて、第2層の予測を組み合わせる。
論文 参考訳(メタデータ) (2021-04-10T16:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。