論文の概要: Neural Architecture Search for Image Super-Resolution Using Densely
Constructed Search Space: DeCoNAS
- arxiv url: http://arxiv.org/abs/2104.09048v1
- Date: Mon, 19 Apr 2021 04:51:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-21 03:53:25.370112
- Title: Neural Architecture Search for Image Super-Resolution Using Densely
Constructed Search Space: DeCoNAS
- Title(参考訳): 厳密な探索空間を用いた画像超解のニューラルネットワーク探索:DeCoNAS
- Authors: Joon Young Ahn and Nam Ik Cho
- Abstract要約: ニューラルアーキテクチャサーチ(NAS)手法を用いて,DeCoNASNetという,軽量で高密度なネットワークを探索する。
画像の超解像を解くための複雑性に基づくペナルティを定義し、多目的問題とみなすことができる。
実験により、当社のDeCoNASNetは、ハンドクラフト法と既存のNASベースの設計で設計された最先端の軽量スーパーリゾリューションネットワークを上回っています。
- 参考スコア(独自算出の注目度): 18.191710317555952
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent progress of deep convolutional neural networks has enabled great
success in single image super-resolution (SISR) and many other vision tasks.
Their performances are also being increased by deepening the networks and
developing more sophisticated network structures. However, finding an optimal
structure for the given problem is a difficult task, even for human experts.
For this reason, neural architecture search (NAS) methods have been introduced,
which automate the procedure of constructing the structures. In this paper, we
expand the NAS to the super-resolution domain and find a lightweight densely
connected network named DeCoNASNet. We use a hierarchical search strategy to
find the best connection with local and global features. In this process, we
define a complexity-based penalty for solving image super-resolution, which can
be considered a multi-objective problem. Experiments show that our DeCoNASNet
outperforms the state-of-the-art lightweight super-resolution networks designed
by handcraft methods and existing NAS-based design.
- Abstract(参考訳): 深層畳み込みニューラルネットワークの最近の進歩は、シングルイメージスーパーレゾリューション(sisr)や他の多くの視覚タスクで大きな成功を収めた。
彼らのパフォーマンスは、ネットワークの深化とより洗練されたネットワーク構造の開発によって向上している。
しかし、与えられた問題に対して最適な構造を見つけることは、人間の専門家にとっても難しい課題である。
このため、構造構築の手順を自動化するニューラル・アーキテクチャ・サーチ(nas)法が導入された。
本稿では,NASを超高分解能領域に拡張し,DeCoNASNetという高密度接続ネットワークを求める。
階層的な検索戦略を使用して,ローカル機能とグローバル機能との最高の接続を見つけます。
このプロセスでは,画像超解法を解くための複雑性に基づくペナルティを定義し,多目的問題とみなすことができる。
実験の結果,DeCoNASNetは手工法やNASをベースとした設計によって設計された,最先端の軽量超解像ネットワークよりも優れていた。
関連論文リスト
- G-EvoNAS: Evolutionary Neural Architecture Search Based on Network
Growth [6.712149832731174]
本稿では,ネットワーク成長(G-EvoNAS)に基づく計算効率の良いニューラルネットワーク進化探索フレームワークを提案する。
G-EvoNASはCIFAR10、CIFAR100、ImageNetの3つの一般的な画像分類データセットでテストされている。
実験の結果、G-EvoNASは0.2GPU日で最先端の設計に匹敵するニューラルネットワークアーキテクチャを見出すことができた。
論文 参考訳(メタデータ) (2024-03-05T05:44:38Z) - DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - Single Cell Training on Architecture Search for Image Denoising [16.72206392993489]
コンポーネントブロックレベルに着目して最適な探索問題を再構成する。
さらに,空間的およびチャネル的ミスマッチを扱うための,革新的な次元マッチングモジュールを統合する。
提案したDenoising Prior Neural Architecture Search (DPNAS) は、1つのGPUで1日で画像復元タスクの最適なアーキテクチャ検索を完了させることで実証した。
論文 参考訳(メタデータ) (2022-12-13T04:47:24Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - Searching Efficient Model-guided Deep Network for Image Denoising [61.65776576769698]
モデルガイド設計とNAS(MoD-NAS)をつなぐ新しいアプローチを提案する。
MoD-NASは、再利用可能な幅探索戦略と密結合された探索ブロックを用いて、各層の操作を自動的に選択する。
いくつかの一般的なデータセットに対する実験結果から、我々のMoD-NASは現在の最先端手法よりもPSNR性能が向上していることが示された。
論文 参考訳(メタデータ) (2021-04-06T14:03:01Z) - Hierarchical Neural Architecture Search for Deep Stereo Matching [131.94481111956853]
本稿では, ディープステレオマッチングのための最初のエンドツーエンド階層型NASフレームワークを提案する。
我々のフレームワークは、タスク固有の人間の知識をニューラルアーキテクチャ検索フレームワークに組み込んでいる。
KITTI stereo 2012、2015、Middleburyベンチマークで1位、SceneFlowデータセットで1位にランクインしている。
論文 参考訳(メタデータ) (2020-10-26T11:57:37Z) - WDN: A Wide and Deep Network to Divide-and-Conquer Image
Super-resolution [0.0]
分割と征服は確立されたアルゴリズム設計パラダイムであり、様々な問題を効率的に解くことが証明されている。
本稿では,画像超解像の問題を複数のサブプロブレムに分割し,ニューラルネットワークの助けを借りて解く手法を提案する。
論文 参考訳(メタデータ) (2020-10-07T06:15:11Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - Neural Architecture Search as Sparse Supernet [78.09905626281046]
本稿では,単一パスと複数パスの探索から混合パスの自動探索へ,ニューラルネットワーク探索(NAS)の問題を拡大することを目的とする。
我々はNAS問題をスパース・スーパーネットとして,空間制約を混合した新しい連続アーキテクチャ表現を用いてモデル化する。
スパーススーパーネットは、コンパクトなノードセット上でスパース混合パスを自動的に達成する。
論文 参考訳(メタデータ) (2020-07-31T14:51:52Z) - DCNAS: Densely Connected Neural Architecture Search for Semantic Image
Segmentation [44.46852065566759]
Densely Connected NAS (DCNAS) フレームワークを提案し、視覚情報のマルチスケール表現に対して最適なネットワーク構造を直接検索する。
具体的には,学習可能な重みを使ってセルを相互に接続することにより,多数の主流ネットワーク設計をカバーするために,密結合された検索空間を導入する。
我々は、DCNASアルゴリズムから得られたアーキテクチャが、公開セマンティックイメージセグメンテーションベンチマーク上で最先端のパフォーマンスを達成することを実証した。
論文 参考訳(メタデータ) (2020-03-26T13:21:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。