論文の概要: Single Cell Training on Architecture Search for Image Denoising
- arxiv url: http://arxiv.org/abs/2212.06368v1
- Date: Tue, 13 Dec 2022 04:47:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 15:22:12.117714
- Title: Single Cell Training on Architecture Search for Image Denoising
- Title(参考訳): イメージデノイングのためのアーキテクチャ探索のための単一セルトレーニング
- Authors: Bokyeung Lee, Kyungdeuk Ko, Jonghwan Hong and Hanseok Ko
- Abstract要約: コンポーネントブロックレベルに着目して最適な探索問題を再構成する。
さらに,空間的およびチャネル的ミスマッチを扱うための,革新的な次元マッチングモジュールを統合する。
提案したDenoising Prior Neural Architecture Search (DPNAS) は、1つのGPUで1日で画像復元タスクの最適なアーキテクチャ検索を完了させることで実証した。
- 参考スコア(独自算出の注目度): 16.72206392993489
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural Architecture Search (NAS) for automatically finding the optimal
network architecture has shown some success with competitive performances in
various computer vision tasks. However, NAS in general requires a tremendous
amount of computations. Thus reducing computational cost has emerged as an
important issue. Most of the attempts so far has been based on manual
approaches, and often the architectures developed from such efforts dwell in
the balance of the network optimality and the search cost. Additionally, recent
NAS methods for image restoration generally do not consider dynamic operations
that may transform dimensions of feature maps because of the dimensionality
mismatch in tensor calculations. This can greatly limit NAS in its search for
optimal network structure. To address these issues, we re-frame the optimal
search problem by focusing at component block level. From previous work, it's
been shown that an effective denoising block can be connected in series to
further improve the network performance. By focusing at block level, the search
space of reinforcement learning becomes significantly smaller and evaluation
process can be conducted more rapidly. In addition, we integrate an innovative
dimension matching modules for dealing with spatial and channel-wise mismatch
that may occur in the optimal design search. This allows much flexibility in
optimal network search within the cell block. With these modules, then we
employ reinforcement learning in search of an optimal image denoising network
at a module level. Computational efficiency of our proposed Denoising Prior
Neural Architecture Search (DPNAS) was demonstrated by having it complete an
optimal architecture search for an image restoration task by just one day with
a single GPU.
- Abstract(参考訳): 最適なネットワークアーキテクチャを自動的に見つけるニューラルネットワーク検索(nas)は、様々なコンピュータビジョンタスクにおける競合性能で成功を収めている。
しかし、一般にNASは膨大な量の計算を必要とする。
このように計算コストの削減が重要な問題となっている。
これまでの試みのほとんどは手作業によるアプローチに基づいており、ネットワークの最適性と検索コストのバランスを保ちながら、このような取り組みから開発されたアーキテクチャも少なくない。
さらに、画像復元のための最近のNAS法は、テンソル計算における次元ミスマッチのため特徴写像の次元を変換する動的な演算を概ね考慮していない。
これにより、最適なネットワーク構造を探す際にNASを大幅に制限することができる。
これらの問題に対処するために、コンポーネントブロックレベルに着目して最適な探索問題を再構成する。
従来の研究から,ネットワーク性能を向上するために,効果的なデノナイジングブロックを連続的に接続できることが示されている。
ブロックレベルに集中することで、強化学習の探索空間が大幅に小さくなり、評価処理をより迅速に行うことができる。
さらに,最適設計探索において発生する空間的およびチャネル的ミスマッチを扱うための,革新的な次元マッチングモジュールを統合する。
これにより、セルブロック内の最適なネットワーク検索の柔軟性が向上する。
これらのモジュールを用いて,モジュールレベルで最適な画像雑音化ネットワークを探索する強化学習を行う。
提案したDenoising Prior Neural Architecture Search (DPNAS) の計算効率は、1つのGPUでわずか1日で画像復元タスクの最適なアーキテクチャ検索を完了させることで実証された。
関連論文リスト
- DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - Pruning-as-Search: Efficient Neural Architecture Search via Channel
Pruning and Structural Reparameterization [50.50023451369742]
プルーニング・アズ・サーチ(Pruning-as-Search、PaS)は、必要なサブネットワークを自動的に効率的に検索するエンドツーエンドのプルーニング手法である。
提案したアーキテクチャは,ImageNet-1000分類タスクにおいて,1.0%$ Top-1精度で先行技術より優れていた。
論文 参考訳(メタデータ) (2022-06-02T17:58:54Z) - ISNAS-DIP: Image-Specific Neural Architecture Search for Deep Image
Prior [6.098254376499899]
DIPフレームワークにおける最適なニューラルアーキテクチャは、画像に依存していることを示す。
本稿では,DIPフレームワークのイメージ固有のNAS戦略を提案する。
実験の結果,画像特異的な指標は探索空間を小さなコホートモデルに還元し,最も優れたモデルが現在のNAS手法より画像復元に優れていることが判明した。
論文 参考訳(メタデータ) (2021-11-27T13:53:25Z) - Combined Depth Space based Architecture Search For Person
Re-identification [70.86236888223569]
個人再識別(ReID)のための軽量で適切なネットワークの設計を目指しています。
本研究では,CDNetと呼ばれる効率的なネットワークアーキテクチャの探索に基づく,複合深さ空間(Componed Depth Space, CDS)と呼ばれる新しい検索空間を提案する。
そこで我々はTop-k Sample Search戦略という低コストの検索戦略を提案し、検索空間をフル活用し、局所的な最適結果のトラップを避ける。
論文 参考訳(メタデータ) (2021-04-09T02:40:01Z) - Searching Efficient Model-guided Deep Network for Image Denoising [61.65776576769698]
モデルガイド設計とNAS(MoD-NAS)をつなぐ新しいアプローチを提案する。
MoD-NASは、再利用可能な幅探索戦略と密結合された探索ブロックを用いて、各層の操作を自動的に選択する。
いくつかの一般的なデータセットに対する実験結果から、我々のMoD-NASは現在の最先端手法よりもPSNR性能が向上していることが示された。
論文 参考訳(メタデータ) (2021-04-06T14:03:01Z) - Hierarchical Neural Architecture Search for Deep Stereo Matching [131.94481111956853]
本稿では, ディープステレオマッチングのための最初のエンドツーエンド階層型NASフレームワークを提案する。
我々のフレームワークは、タスク固有の人間の知識をニューラルアーキテクチャ検索フレームワークに組み込んでいる。
KITTI stereo 2012、2015、Middleburyベンチマークで1位、SceneFlowデータセットで1位にランクインしている。
論文 参考訳(メタデータ) (2020-10-26T11:57:37Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - Superkernel Neural Architecture Search for Image Denoising [4.633161758939184]
我々は、画像デノゲーションである密集予測タスクのためにNASを探索することに注力する。
コストのかかるトレーニング手順のため、画像強調のためのほとんどのNASソリューションは強化学習や進化的アルゴリズム探索に依存している。
本稿では,高密度予測のためのモデルの高速単発訓練を可能にするスーパーカーネル手法の効率的な実装について紹介する。
画像復調のためのSIDD+ベンチマークにおいて,本手法の有効性を示す。
論文 参考訳(メタデータ) (2020-04-19T14:52:22Z) - DCNAS: Densely Connected Neural Architecture Search for Semantic Image
Segmentation [44.46852065566759]
Densely Connected NAS (DCNAS) フレームワークを提案し、視覚情報のマルチスケール表現に対して最適なネットワーク構造を直接検索する。
具体的には,学習可能な重みを使ってセルを相互に接続することにより,多数の主流ネットワーク設計をカバーするために,密結合された検索空間を導入する。
我々は、DCNASアルゴリズムから得られたアーキテクチャが、公開セマンティックイメージセグメンテーションベンチマーク上で最先端のパフォーマンスを達成することを実証した。
論文 参考訳(メタデータ) (2020-03-26T13:21:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。