論文の概要: ISNAS-DIP: Image-Specific Neural Architecture Search for Deep Image
Prior
- arxiv url: http://arxiv.org/abs/2111.15362v1
- Date: Sat, 27 Nov 2021 13:53:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 15:21:39.687607
- Title: ISNAS-DIP: Image-Specific Neural Architecture Search for Deep Image
Prior
- Title(参考訳): ISNAS-DIP:Deep Image Priorのための画像特異的ニューラルネットワーク探索
- Authors: Metin Ersin Arican, Ozgur Kara, Gustav Bredell and Ender Konukoglu
- Abstract要約: DIPフレームワークにおける最適なニューラルアーキテクチャは、画像に依存していることを示す。
本稿では,DIPフレームワークのイメージ固有のNAS戦略を提案する。
実験の結果,画像特異的な指標は探索空間を小さなコホートモデルに還元し,最も優れたモデルが現在のNAS手法より画像復元に優れていることが判明した。
- 参考スコア(独自算出の注目度): 6.098254376499899
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works show that convolutional neural network (CNN) architectures have
a spectral bias towards lower frequencies, which has been leveraged for various
image restoration tasks in the Deep Image Prior (DIP) framework. The benefit of
the inductive bias the network imposes in the DIP framework depends on the
architecture. Therefore, researchers have studied how to automate the search to
determine the best-performing model. However, common neural architecture search
(NAS) techniques are resource and time-intensive. Moreover, best-performing
models are determined for a whole dataset of images instead of for each image
independently, which would be prohibitively expensive. In this work, we first
show that optimal neural architectures in the DIP framework are
image-dependent. Leveraging this insight, we then propose an image-specific NAS
strategy for the DIP framework that requires substantially less training than
typical NAS approaches, effectively enabling image-specific NAS. For a given
image, noise is fed to a large set of untrained CNNs, and their outputs' power
spectral densities (PSD) are compared to that of the corrupted image using
various metrics. Based on this, a small cohort of image-specific architectures
is chosen and trained to reconstruct the corrupted image. Among this cohort,
the model whose reconstruction is closest to the average of the reconstructed
images is chosen as the final model. We justify the proposed strategy's
effectiveness by (1) demonstrating its performance on a NAS Dataset for DIP
that includes 500+ models from a particular search space (2) conducting
extensive experiments on image denoising, inpainting, and super-resolution
tasks. Our experiments show that image-specific metrics can reduce the search
space to a small cohort of models, of which the best model outperforms current
NAS approaches for image restoration.
- Abstract(参考訳): 近年の研究では、畳み込みニューラルネットワーク(CNN)アーキテクチャは低周波に対するスペクトルバイアスを有しており、Deep Image Prior(DIP)フレームワークの様々な画像復元タスクに活用されている。
ネットワークがdipフレームワークに課す帰納バイアスの利点は、アーキテクチャに依存する。
そこで研究者らは、最適な性能モデルを決定するために、探索の自動化方法を研究した。
しかし、common neural architecture search (nas)技術はリソースと時間集約である。
さらに、最高のパフォーマンスモデルは、画像ごとに独立してではなく、画像のデータセット全体に対して決定される。
本稿ではまず,dipフレームワークにおける最適なニューラルアーキテクチャが画像依存であることを示す。
この知見を生かして、DIPフレームワークのためのイメージ固有のNAS戦略を提案し、典型的なNASアプローチよりもトレーニングをかなり少なくし、画像固有のNASを有効にする。
与えられた画像に対して、ノイズは訓練されていないCNNの大規模なセットに供給され、出力のパワースペクトル密度(PSD)は、様々なメトリクスを用いて劣化した画像と比較される。
これに基づいて、画像固有のアーキテクチャの小さなコホートを選択して、破損した画像を再構築する訓練を行う。
このコホートのうち、復元された画像の平均に最も近いモデルが最終モデルとして選択される。
提案手法の有効性を,(1)特定の検索空間から500以上のモデルを含むdip用nasデータセットで実証し,(2)画像のデニュージング,インパインティング,および超解像タスクに関する広範囲な実験を行うことにより正当化する。
実験の結果,画像特異的な指標は探索空間を小さなコホートモデルに還元し,最も優れたモデルが現在のNAS手法より画像復元に優れていることがわかった。
関連論文リスト
- Parameter-Inverted Image Pyramid Networks [49.35689698870247]
Inverted Image Pyramid Networks (PIIP) と呼ばれる新しいネットワークアーキテクチャを提案する。
私たちの中核となる考え方は、パラメータサイズの異なるモデルを使用して、画像ピラミッドの解像度の異なるレベルを処理することです。
PIIPは、オブジェクト検出、セグメンテーション、画像分類などのタスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-06-06T17:59:10Z) - HNAS-reg: hierarchical neural architecture search for deformable medical
image registration [0.8249180979158817]
本稿では、変形可能な医用画像登録のための最適なネットワークアーキテクチャを特定するための階層型NASフレームワーク(HNAS-Reg)を提案する。
636T1重み付き磁気共鳴画像(MRI)からなる3つのデータセットに対する実験により,提案手法により,画像登録精度が向上し,モデルサイズが小さくなる深層学習モデルを構築することができることを示した。
論文 参考訳(メタデータ) (2023-08-23T21:47:28Z) - Single Cell Training on Architecture Search for Image Denoising [16.72206392993489]
コンポーネントブロックレベルに着目して最適な探索問題を再構成する。
さらに,空間的およびチャネル的ミスマッチを扱うための,革新的な次元マッチングモジュールを統合する。
提案したDenoising Prior Neural Architecture Search (DPNAS) は、1つのGPUで1日で画像復元タスクの最適なアーキテクチャ検索を完了させることで実証した。
論文 参考訳(メタデータ) (2022-12-13T04:47:24Z) - OSLO: On-the-Sphere Learning for Omnidirectional images and its
application to 360-degree image compression [59.58879331876508]
全方向画像の表現モデルの学習について検討し、全方向画像の深層学習モデルで使用される数学的ツールを再定義するために、HEALPixの球面一様サンプリングの特性を利用することを提案する。
提案したオン・ザ・スフィア・ソリューションは、等方形画像に適用された類似の学習モデルと比較して、13.7%のビットレートを節約できる圧縮ゲインを向上させる。
論文 参考訳(メタデータ) (2021-07-19T22:14:30Z) - Searching Efficient Model-guided Deep Network for Image Denoising [61.65776576769698]
モデルガイド設計とNAS(MoD-NAS)をつなぐ新しいアプローチを提案する。
MoD-NASは、再利用可能な幅探索戦略と密結合された探索ブロックを用いて、各層の操作を自動的に選択する。
いくつかの一般的なデータセットに対する実験結果から、我々のMoD-NASは現在の最先端手法よりもPSNR性能が向上していることが示された。
論文 参考訳(メタデータ) (2021-04-06T14:03:01Z) - Learning Versatile Neural Architectures by Propagating Network Codes [74.2450894473073]
アーキテクチャの性能を複数のデータセットやタスクで予測できる新しい「神経予測器」を提案する。
ncpはネットワークコードから学習するが、オリジナルデータではないため、データセット間で効率的にアーキテクチャを更新することができる。
論文 参考訳(メタデータ) (2021-03-24T15:20:38Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - Parkinson's Disease Detection with Ensemble Architectures based on
ILSVRC Models [1.8884278918443564]
磁気共鳴(MR)T1画像を用いたパーキンソン病の同定のためのニューラルネットワークアーキテクチャの検討
提案手法はすべてMR画像からPDを検出する既存の手法より優れており、最大95%の精度で検出できる。
我々の発見は、トレーニングデータがない、あるいは不十分な場合には、有望な方向を示唆している。
論文 参考訳(メタデータ) (2020-07-23T05:40:47Z) - BP-DIP: A Backprojection based Deep Image Prior [49.375539602228415]
画像復元手法として, (i)Deep Image Prior (DIP) と (ii) バックプロジェクション (BP) の2つの手法を提案する。
提案手法はBP-DIP(BP-DIP)と呼ばれ,高いPSNR値とより優れた推論実行時間を持つ通常のDIPよりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-03-11T17:09:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。