論文の概要: Optimizing Neural Network Architecture for Medical Image Segmentation Using Monte Carlo Tree Search
- arxiv url: http://arxiv.org/abs/2602.22361v1
- Date: Wed, 25 Feb 2026 19:40:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.38864
- Title: Optimizing Neural Network Architecture for Medical Image Segmentation Using Monte Carlo Tree Search
- Title(参考訳): モンテカルロ木探索を用いた医用画像分割のためのニューラルネットワークアーキテクチャの最適化
- Authors: Liping Meng, Fan Nie, Yunyun Zhang, Chao Han,
- Abstract要約: 本稿では,モンテカルロ木探索 (MCTS) とニューラルアーキテクチャ探索 (NAS) を組み合わせた新しい医用画像分割フレームワーク MNAS-Unet を提案する。
実験により、MNAS-UnetはNAS-Unetや他の最先端モデルよりも、複数の医用画像データセットのセグメンテーション精度が優れていることが示された。
- 参考スコア(独自算出の注目度): 4.890591619783316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a novel medical image segmentation framework, MNAS-Unet, which combines Monte Carlo Tree Search (MCTS) and Neural Architecture Search (NAS). MNAS-Unet dynamically explores promising network architectures through MCTS, significantly enhancing the efficiency and accuracy of architecture search. It also optimizes the DownSC and UpSC unit structures, enabling fast and precise model adjustments. Experimental results demonstrate that MNAS-Unet outperforms NAS-Unet and other state-of-the-art models in segmentation accuracy on several medical image datasets, including PROMISE12, Ultrasound Nerve, and CHAOS. Furthermore, compared with NAS-Unet, MNAS-Unet reduces the architecture search budget by 54% (early stopping at 139 epochs versus 300 epochs under the same search setting), while achieving a lightweight model with only 0.6M parameters and lower GPU memory consumption, which further improves its practical applicability. These results suggest that MNAS-Unet can improve search efficiency while maintaining competitive segmentation accuracy under practical resource constraints.
- Abstract(参考訳): 本稿では,モンテカルロ木探索 (MCTS) とニューラルアーキテクチャ探索 (NAS) を組み合わせた新しい医用画像分割フレームワーク MNAS-Unet を提案する。
MNAS-UnetはMCTSを通して有望なネットワークアーキテクチャを動的に探索し、アーキテクチャ探索の効率と精度を大幅に向上させる。
また、DownSCとUpSCのユニット構造を最適化し、高速で正確なモデル調整を可能にした。
PMISE12, Ultrasound Nerve, CHAOS などの医療画像データセットにおいて, MNAS-Unet がNAS-Unet や他の最先端モデルよりも精度が高いことを示す実験結果が得られた。
さらに、NAS-Unetと比較して、MNAS-Unetはアーキテクチャ検索予算を54%削減し(当初は139エポックと300エポックで同じサーチ設定で停止)、わずか0.6MパラメータとGPUメモリ消費の少ない軽量モデルを実現し、実用性を向上させる。
これらの結果から,MNAS-Unetは資源制約下での競合セグメンテーション精度を維持しつつ,探索効率を向上できる可能性が示唆された。
関連論文リスト
- CIMNAS: A Joint Framework for Compute-In-Memory-Aware Neural Architecture Search [1.4979445283937187]
本研究は,CIMアーキテクチャのための共同モデル量子化ハードウェア最適化フレームワークであるCIMNASを紹介する。
CIMNASは同時に、ソフトウェアパラメータ、量子化ポリシー、幅広い範囲のハードウェアパラメータ、デバイス、回路、アーキテクチャレベルの共最適化を検索する。
他の最先端の手法とは異なり、CIMNASはEDAPを精度損失なく達成し、高性能CIMベースのニューラルネットワーク設計のための多様なパラメータの組み合わせを生成する。
論文 参考訳(メタデータ) (2025-09-30T06:57:49Z) - A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [56.09418231453024]
ニューラルアーキテクチャサーチ(NAS)により、研究者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく相互比較比較支援型多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - BOMP-NAS: Bayesian Optimization Mixed Precision NAS [2.53488567499651]
BOMP-NASは、設計コストをはるかに低くして、最先端のアートパフォーマンスを実現するニューラルネットワークを見つけることができる。
BOMP-NASは、最も近い関連する研究の6倍短い検索時間でこれらのニューラルネットワークを見つけることができる。
論文 参考訳(メタデータ) (2023-01-27T16:04:34Z) - Lightweight Monocular Depth with a Novel Neural Architecture Search
Method [46.97673710849343]
本稿では,軽量な単分子深度推定モデルを生成するために,LiDNASと呼ばれる新しいニューラルネットワーク探索手法を提案する。
我々は,階層の多様性と探索空間の大きさのバランスをとるために,事前に定義されたバックボーンネットワーク上に探索空間を構築した。
LiDNAS最適化モデルは、NYU-Depth-v2、KITTI、ScanNet上でのコンパクトな深さ推定よりも優れた結果が得られる。
論文 参考訳(メタデータ) (2021-08-25T08:06:28Z) - Searching Efficient Model-guided Deep Network for Image Denoising [61.65776576769698]
モデルガイド設計とNAS(MoD-NAS)をつなぐ新しいアプローチを提案する。
MoD-NASは、再利用可能な幅探索戦略と密結合された探索ブロックを用いて、各層の操作を自動的に選択する。
いくつかの一般的なデータセットに対する実験結果から、我々のMoD-NASは現在の最先端手法よりもPSNR性能が向上していることが示された。
論文 参考訳(メタデータ) (2021-04-06T14:03:01Z) - Binarized Neural Architecture Search for Efficient Object Recognition [120.23378346337311]
バイナリ化されたニューラルネットワークサーチ(BNAS)は、エッジコンピューティング用の組み込みデバイスにおいて、膨大な計算コストを削減するために、極めて圧縮されたモデルを生成する。
9,6.53%対9,7.22%の精度はCIFAR-10データセットで達成されるが、かなり圧縮されたモデルで、最先端のPC-DARTSよりも40%速い検索が可能である。
論文 参考訳(メタデータ) (2020-09-08T15:51:23Z) - MS-NAS: Multi-Scale Neural Architecture Search for Medical Image
Segmentation [16.206524842952636]
本稿では,ネットワークバックボーンからセル操作までのマルチスケール検索空間を特徴とするマルチスケールNASフレームワークを提案する。
セグメンテーションのための様々なデータセットにおいて、MS-NASは最先端の手法より優れており、0.6-5.4% mIOUと0.4-3.5%のDSC改善を実現している。
論文 参考訳(メタデータ) (2020-07-13T02:02:00Z) - Powering One-shot Topological NAS with Stabilized Share-parameter Proxy [65.09967910722932]
ワンショットNAS法は、高性能モデルを発見するための訓練効率と能力が際立ったため、研究コミュニティから大きな関心を集めている。
本研究では,大規模Topology Augmented Search Spaceにおいて,高性能なネットワークアーキテクチャを探索することにより,ワンショットNASの向上を図る。
提案手法は,ImageNet 上の Multiply-Adds (MAdds) 制約下での最先端性能を実現する。
論文 参考訳(メタデータ) (2020-05-21T08:18:55Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。