論文の概要: Neural Architecture Search for Efficient Uncalibrated Deep Photometric
Stereo
- arxiv url: http://arxiv.org/abs/2110.05621v1
- Date: Mon, 11 Oct 2021 21:22:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 14:55:03.453089
- Title: Neural Architecture Search for Efficient Uncalibrated Deep Photometric
Stereo
- Title(参考訳): 効率的な深層測光ステレオのためのニューラルアーキテクチャ探索
- Authors: Francesco Sarno, Suryansh Kumar, Berk Kaya, Zhiwu Huang, Vittorio
Ferrari, Luc Van Gool
- Abstract要約: 差別化可能なニューラルアーキテクチャサーチ(NAS)戦略を利用して、非校正型PSアーキテクチャを自動的に見つける。
DiLiGenTデータセットの実験では、自動検索されたニューラルネットワークのパフォーマンスが、最先端の未校正PSメソッドと好適に比較されている。
- 参考スコア(独自算出の注目度): 105.05232615226602
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an automated machine learning approach for uncalibrated
photometric stereo (PS). Our work aims at discovering lightweight and
computationally efficient PS neural networks with excellent surface normal
accuracy. Unlike previous uncalibrated deep PS networks, which are handcrafted
and carefully tuned, we leverage differentiable neural architecture search
(NAS) strategy to find uncalibrated PS architecture automatically. We begin by
defining a discrete search space for a light calibration network and a normal
estimation network, respectively. We then perform a continuous relaxation of
this search space and present a gradient-based optimization strategy to find an
efficient light calibration and normal estimation network. Directly applying
the NAS methodology to uncalibrated PS is not straightforward as certain
task-specific constraints must be satisfied, which we impose explicitly.
Moreover, we search for and train the two networks separately to account for
the Generalized Bas-Relief (GBR) ambiguity. Extensive experiments on the
DiLiGenT dataset show that the automatically searched neural architectures
performance compares favorably with the state-of-the-art uncalibrated PS
methods while having a lower memory footprint.
- Abstract(参考訳): 本研究では,非校正光度ステレオ(PS)のための自動機械学習手法を提案する。
本研究の目的は、表面正規精度に優れた軽量で計算効率の良いPSニューラルネットワークの発見である。
従来は手作りで慎重に調整されていた深層PSネットワークとは違って,差別化可能なニューラルアーキテクチャ探索(NAS)戦略を活用して,非校正PSアーキテクチャの自動検索を行う。
まず,光キャリブレーションネットワークと正規推定ネットワークの離散探索空間をそれぞれ定義する。
次に、この探索空間を連続的に緩和し、効率的な光キャリブレーションと正規推定ネットワークを見つけるための勾配に基づく最適化戦略を提案する。
非校正PSにNAS方法論を直接適用することは、特定のタスク固有の制約を満たさなければならないため、簡単ではない。
さらに,2つのネットワークを個別に検索・訓練し,一般バス救済(GBR)の曖昧さを考慮に入れた。
DiLiGenTデータセットの大規模な実験によると、自動検索されたニューラルネットワークのパフォーマンスは、メモリフットプリントが低い状態で、最先端の未校正PSメソッドと良好に比較できる。
関連論文リスト
- Local Loss Optimization in the Infinite Width: Stable Parameterization of Predictive Coding Networks and Target Propagation [8.35644084613785]
局所目標の2つの代表的設計に対して、無限幅極限における最大更新パラメータ化(mu$P)を導入する。
深層線形ネットワークを解析した結果,PCの勾配は1次勾配とガウス・ニュートン様勾配の間に介在していることが判明した。
我々は、特定の標準設定において、無限幅制限のPCは、一階勾配とよりよく似た振る舞いをすることを示した。
論文 参考訳(メタデータ) (2024-11-04T11:38:27Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Pruning-as-Search: Efficient Neural Architecture Search via Channel
Pruning and Structural Reparameterization [50.50023451369742]
プルーニング・アズ・サーチ(Pruning-as-Search、PaS)は、必要なサブネットワークを自動的に効率的に検索するエンドツーエンドのプルーニング手法である。
提案したアーキテクチャは,ImageNet-1000分類タスクにおいて,1.0%$ Top-1精度で先行技術より優れていた。
論文 参考訳(メタデータ) (2022-06-02T17:58:54Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - CONetV2: Efficient Auto-Channel Size Optimization for CNNs [35.951376988552695]
本研究は,チャネルサイズのマイクロサーチ空間を調べることにより,計算制約のある環境において効率的な手法を提案する。
チャネルサイズ最適化に際し、ネットワークの異なる接続層内の依存関係を抽出する自動アルゴリズムを設計する。
また、テスト精度と高い相関性を持ち、個々のネットワーク層を解析できる新しいメトリクスも導入する。
論文 参考訳(メタデータ) (2021-10-13T16:17:19Z) - An optimised deep spiking neural network architecture without gradients [7.183775638408429]
本稿では、局所シナプスおよびしきい値適応ルールを用いたエンドツーエンドのトレーニング可能なモジュラーイベント駆動ニューラルアーキテクチャを提案する。
このアーキテクチャは、既存のスパイキングニューラルネットワーク(SNN)アーキテクチャの高度に抽象化されたモデルを表している。
論文 参考訳(メタデータ) (2021-09-27T05:59:12Z) - Dense for the Price of Sparse: Improved Performance of Sparsely
Initialized Networks via a Subspace Offset [0.0]
我々は,0.01%のトレーニング可能なカーネルパラメータが残っている場合でも,情報伝達とトレーニング性を維持する新しいDCT+Sparse層アーキテクチャを導入する。
標準のスパース層からDCTとスパース層への切り替えは、ネットワークのストレージフットプリントを増大させず、小さな計算オーバーヘッドしか発生しません。
論文 参考訳(メタデータ) (2021-02-12T00:05:02Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。