論文の概要: MRF-UNets: Searching UNet with Markov Random Fields
- arxiv url: http://arxiv.org/abs/2207.06168v1
- Date: Wed, 13 Jul 2022 13:04:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 11:57:01.721939
- Title: MRF-UNets: Searching UNet with Markov Random Fields
- Title(参考訳): MRF-UNets:MarkovランダムフィールドでUNetを検索
- Authors: Zifu Wang, Matthew B. Blaschko
- Abstract要約: 本稿では、最近のAdaptive and Optimal Network Width Search (AOWS) 法を拡張し改善する MRF-NAS を提案する。
アーキテクチャ MRF-UNet にはいくつかの興味深い特徴がある。
実験の結果,MRF-UNetsは3つの航空画像データセットと2つの医療画像データセットのベンチマークを著しく上回った。
- 参考スコア(独自算出の注目度): 25.607512500358723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: UNet [27] is widely used in semantic segmentation due to its simplicity and
effectiveness. However, its manually-designed architecture is applied to a
large number of problem settings, either with no architecture optimizations, or
with manual tuning, which is time consuming and can be sub-optimal. In this
work, firstly, we propose Markov Random Field Neural Architecture Search
(MRF-NAS) that extends and improves the recent Adaptive and Optimal Network
Width Search (AOWS) method [4] with (i) a more general MRF framework (ii)
diverse M-best loopy inference (iii) differentiable parameter learning. This
provides the necessary NAS framework to efficiently explore network
architectures that induce loopy inference graphs, including loops that arise
from skip connections. With UNet as the backbone, we find an architecture,
MRF-UNet, that shows several interesting characteristics. Secondly, through the
lens of these characteristics, we identify the sub-optimality of the original
UNet architecture and further improve our results with MRF-UNetV2. Experiments
show that our MRF-UNets significantly outperform several benchmarks on three
aerial image datasets and two medical image datasets while maintaining low
computational costs. The code is available at:
https://github.com/zifuwanggg/MRF-UNets.
- Abstract(参考訳): UNet[27]はその単純さと有効性のためにセマンティックセグメンテーションで広く使われている。
しかし、その手動設計アーキテクチャは、アーキテクチャの最適化なしで、または、時間消費であり、副最適化になり得る手動チューニングによって、多くの問題設定に適用される。
本稿では,まず,最近の適応的最適ネットワーク幅探索法(aows)法 [4] を拡張し,改良したマルコフ確率場ニューラルネットワーク探索(mrf-nas)を提案する。
(i)より一般的なMRFフレームワーク
(ii)多様なMベストループ推論
(iii)微分可能なパラメータ学習。
これは、スキップ接続から発生するループを含むループ推論グラフを誘導するネットワークアーキテクチャを効率的に探索するために必要なnasフレームワークを提供する。
バックボーンとしてUNetを用いると、いくつかの興味深い特徴を示すアーキテクチャ MRF-UNet が見つかる。
次に、これらの特徴のレンズを用いて、元のUNetアーキテクチャのサブ最適性を同定し、MDF-UNetV2による結果をさらに改善する。
MRF-UNetsは、低計算コストを維持しながら、3つの航空画像データセットと2つの医療画像データセットのベンチマークを著しく上回りました。
コードは、https://github.com/zifuwanggg/MRF-UNets.comで入手できる。
関連論文リスト
- Multi-conditioned Graph Diffusion for Neural Architecture Search [8.290336491323796]
本稿では、離散的な条件付きグラフ拡散プロセスを用いて、高性能ニューラルネットワークアーキテクチャを生成するグラフ拡散に基づくNAS手法を提案する。
6つの標準ベンチマークで有望な結果を示し、新しいアーキテクチャとユニークなアーキテクチャを高速に実現します。
論文 参考訳(メタデータ) (2024-03-09T21:45:31Z) - MF-NeRF: Memory Efficient NeRF with Mixed-Feature Hash Table [62.164549651134465]
MF-NeRFは,Mixed-Featureハッシュテーブルを用いてメモリ効率を向上し,再構成品質を維持しながらトレーニング時間を短縮するメモリ効率の高いNeRFフレームワークである。
最新技術であるInstant-NGP、TensoRF、DVGOによる実験は、MF-NeRFが同じGPUハードウェア上で、同様のあるいはそれ以上のリコンストラクション品質で最速のトレーニング時間を達成できることを示唆している。
論文 参考訳(メタデータ) (2023-04-25T05:44:50Z) - HKNAS: Classification of Hyperspectral Imagery Based on Hyper Kernel
Neural Architecture Search [104.45426861115972]
設計したハイパーカーネルを利用して,構造パラメータを直接生成することを提案する。
我々は1次元または3次元の畳み込みを伴う画素レベルの分類と画像レベルの分類を別々に行う3種類のネットワークを得る。
6つの公開データセットに関する一連の実験は、提案手法が最先端の結果を得ることを示した。
論文 参考訳(メタデータ) (2023-04-23T17:27:40Z) - Neural Networks with A La Carte Selection of Activation Functions [0.0]
活性化関数(AF)は、ニューラルネットワークの成功(または失敗)に重要な要素である。
多数の既知のAFをアーキテクチャの成功と組み合わせて、有益な3つの方法を提案しています。
本稿では,ReLU隠れユニットとソフトマックス出力ユニットからなる標準ネットワークと比較して,25の分類問題に対して,全ての手法が有意に優れた結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-06-24T09:09:39Z) - iDARTS: Differentiable Architecture Search with Stochastic Implicit
Gradients [75.41173109807735]
微分可能なArchiTecture Search(DARTS)は先日,ニューラルアーキテクチャサーチ(NAS)の主流になった。
暗黙の関数定理に基づいてDARTSの過次計算に取り組む。
提案手法であるiDARTSのアーキテクチャ最適化は,定常点に収束することが期待される。
論文 参考訳(メタデータ) (2021-06-21T00:44:11Z) - Trilevel Neural Architecture Search for Efficient Single Image
Super-Resolution [127.92235484598811]
本稿では,高効率単一画像超解像(SR)のための3レベルニューラルネットワーク探索法を提案する。
離散探索空間をモデル化するために、離散探索空間に新たな連続緩和を適用し、ネットワークパス、セル操作、カーネル幅の階層的混合を構築する。
階層型スーパーネット方式による最適化を行うため,効率的な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-17T12:19:49Z) - Smooth Variational Graph Embeddings for Efficient Neural Architecture
Search [41.62970837629573]
本研究では,探索空間からニューラルネットワークをスムーズにエンコードし,正確に再構築できる2面変分グラフオートエンコーダを提案する。
ENASアプローチ,NAS-Bench-101およびNAS-Bench-201探索空間で定義されたニューラルネットワークに対する提案手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-09T17:05:41Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z) - Bayesian Neural Architecture Search using A Training-Free Performance
Metric [7.775212462771685]
リカレントニューラルネットワーク(RNN)は時系列予測の強力なアプローチである。
本稿では,ベイズ最適化(BO)アルゴリズムの変種を用いて,アーキテクチャ最適化問題に取り組むことを提案する。
また,可変長アーキテクチャ表現に対処する3つの固定長符号化方式を提案する。
論文 参考訳(メタデータ) (2020-01-29T08:42:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。