論文の概要: Fast Neural Architecture Search for Lightweight Dense Prediction
Networks
- arxiv url: http://arxiv.org/abs/2203.01994v1
- Date: Thu, 3 Mar 2022 20:17:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 03:24:25.973035
- Title: Fast Neural Architecture Search for Lightweight Dense Prediction
Networks
- Title(参考訳): 軽量高密度予測ネットワークのための高速ニューラルネットワーク探索
- Authors: Lam Huynh, Esa Rahtu, Jiri Matas, Janne Heikkila
- Abstract要約: シングルイメージ超解像(Single Image Super- resolution, SISR)は、低解像度画像から高解像度画像を生成する低レベルの視覚タスクである。
センス予測(Dense prediction)は、入力画像の各ピクセルをいくつかの予測値でマッピングすることを目的としたコンピュータビジョン問題のクラスである。
- 参考スコア(独自算出の注目度): 41.605107921584775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dense prediction is a class of computer vision problems aiming at mapping
every pixel of the input image with some predicted values. Depending on the
problem, the output values can be either continous or discrete. For instance,
monocular depth estimation and image super-resolution are often formulated as
regression, while semantic segmentation is a dense classification, i.e.
discrete, problem. More specifically, the monocular depth estimation problem
produces a dense depth map from a single image to be used in various
applications including robotics, scene understanding, and augmented reality.
Single image super-resolution (SISR) is a low-level vision task that generates
a high-resolution image from its low-resolution counterpart. SISR is widely
utilized in medical and surveillance imaging, where images with more precise
details can provide invaluable information. On the other hand, semantic
segmentation predicts a dense annotated map of different semantic categories
from a given image that is crucial for image understanding tasks.
- Abstract(参考訳): センス予測(Dense prediction)は、入力画像の各ピクセルを予測値でマッピングすることを目的としたコンピュータビジョン問題のクラスである。
問題によっては、出力値は連続的または離散的である。
例えば、単眼深度推定と画像超解像はしばしば回帰として定式化されるが、意味セグメンテーションは密集した分類、すなわち離散問題である。
より具体的には、単眼深度推定問題は、ロボティクス、シーン理解、拡張現実など、様々なアプリケーションで使用される単一の画像から深い深さマップを生成する。
SISR(Single Image Super- resolution)は、低解像度画像から高解像度画像を生成する低レベルの視覚タスクである。
sisrは、より詳細な画像が貴重な情報を提供できる医療・監視イメージングに広く利用されている。
一方、セマンティックセグメンテーションは、画像理解タスクに不可欠な所定の画像から、異なる意味カテゴリの密な注釈付きマップを予測する。
関連論文リスト
- Toward Edge-Efficient Dense Predictions with Synergistic Multi-Task
Neural Architecture Search [22.62389136288258]
エッジプラットフォーム上で効率的な高密度予測を開発する上での課題に対処する,新しい,スケーラブルなソリューションを提案する。
最初の重要な洞察は、マルチタスクラーニング(MTL)とハードウェア対応のニューラルアーキテクチャサーチ(NAS)が、デバイス上のディエンス予測(DP)に多大な利益をもたらすためにシナジーで機能できることである。
JAReDは、望ましくないノイズの最大88%を低減し、同時に精度を向上する。
論文 参考訳(メタデータ) (2022-10-04T04:49:08Z) - Tiered Pruning for Efficient Differentialble Inference-Aware Neural
Architecture Search [0.0]
我々は、メモリと計算の複雑さで内部の隠された次元を探索できるDNASのための双方向構築ブロックを紹介した。
第2に,探索中にスーパーネットの層内でブロックを刈り取るアルゴリズムを提案する。
第3に,探索中に不要な層を刈り取る新しい手法について述べる。
論文 参考訳(メタデータ) (2022-09-23T18:03:54Z) - Pruning-as-Search: Efficient Neural Architecture Search via Channel
Pruning and Structural Reparameterization [50.50023451369742]
プルーニング・アズ・サーチ(Pruning-as-Search、PaS)は、必要なサブネットワークを自動的に効率的に検索するエンドツーエンドのプルーニング手法である。
提案したアーキテクチャは,ImageNet-1000分類タスクにおいて,1.0%$ Top-1精度で先行技術より優れていた。
論文 参考訳(メタデータ) (2022-06-02T17:58:54Z) - Lightweight Monocular Depth with a Novel Neural Architecture Search
Method [46.97673710849343]
本稿では,軽量な単分子深度推定モデルを生成するために,LiDNASと呼ばれる新しいニューラルネットワーク探索手法を提案する。
我々は,階層の多様性と探索空間の大きさのバランスをとるために,事前に定義されたバックボーンネットワーク上に探索空間を構築した。
LiDNAS最適化モデルは、NYU-Depth-v2、KITTI、ScanNet上でのコンパクトな深さ推定よりも優れた結果が得られる。
論文 参考訳(メタデータ) (2021-08-25T08:06:28Z) - Weak NAS Predictors Are All You Need [91.11570424233709]
最近の予測器ベースのnasアプローチは、アーキテクチャとパフォーマンスのペアをサンプリングし、プロキシの精度を予測するという2つの重要なステップで問題を解決しようとする。
私たちはこのパラダイムを、アーキテクチャ空間全体をカバーする複雑な予測子から、ハイパフォーマンスなサブスペースへと徐々に進む弱い予測子へとシフトさせます。
NAS-Bench-101 および NAS-Bench-201 で最高の性能のアーキテクチャを見つけるためのサンプルを少なくし、NASNet 検索空間における最先端の ImageNet パフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-02-21T01:58:43Z) - Finding Non-Uniform Quantization Schemes using Multi-Task Gaussian
Processes [12.798516310559375]
その結果,最後の層では精度が著しく低いため,メモリの節約を図りながら精度の低下が最小限に抑えられることがわかった。
我々は,VGG,ResNet,GoogLeNetアーキテクチャを用いて,CIFAR10およびImageNetデータセット上で実験を行った。
論文 参考訳(メタデータ) (2020-07-15T15:16:18Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。