論文の概要: Hierarchical Neural Architecture Search for Deep Stereo Matching
- arxiv url: http://arxiv.org/abs/2010.13501v1
- Date: Mon, 26 Oct 2020 11:57:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 19:25:36.995631
- Title: Hierarchical Neural Architecture Search for Deep Stereo Matching
- Title(参考訳): 階層型ニューラルネットワークによるディープステレオマッチングの探索
- Authors: Xuelian Cheng, Yiran Zhong, Mehrtash Harandi, Yuchao Dai, Xiaojun
Chang, Tom Drummond, Hongdong Li, Zongyuan Ge
- Abstract要約: 本稿では, ディープステレオマッチングのための最初のエンドツーエンド階層型NASフレームワークを提案する。
我々のフレームワークは、タスク固有の人間の知識をニューラルアーキテクチャ検索フレームワークに組み込んでいる。
KITTI stereo 2012、2015、Middleburyベンチマークで1位、SceneFlowデータセットで1位にランクインしている。
- 参考スコア(独自算出の注目度): 131.94481111956853
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To reduce the human efforts in neural network design, Neural Architecture
Search (NAS) has been applied with remarkable success to various high-level
vision tasks such as classification and semantic segmentation. The underlying
idea for the NAS algorithm is straightforward, namely, to enable the network
the ability to choose among a set of operations (e.g., convolution with
different filter sizes), one is able to find an optimal architecture that is
better adapted to the problem at hand. However, so far the success of NAS has
not been enjoyed by low-level geometric vision tasks such as stereo matching.
This is partly due to the fact that state-of-the-art deep stereo matching
networks, designed by humans, are already sheer in size. Directly applying the
NAS to such massive structures is computationally prohibitive based on the
currently available mainstream computing resources. In this paper, we propose
the first end-to-end hierarchical NAS framework for deep stereo matching by
incorporating task-specific human knowledge into the neural architecture search
framework. Specifically, following the gold standard pipeline for deep stereo
matching (i.e., feature extraction -- feature volume construction and dense
matching), we optimize the architectures of the entire pipeline jointly.
Extensive experiments show that our searched network outperforms all
state-of-the-art deep stereo matching architectures and is ranked at the top 1
accuracy on KITTI stereo 2012, 2015 and Middlebury benchmarks, as well as the
top 1 on SceneFlow dataset with a substantial improvement on the size of the
network and the speed of inference. The code is available at
https://github.com/XuelianCheng/LEAStereo.
- Abstract(参考訳): ニューラルネットワーク設計における人間の努力を減らすため、ニューラルネットワーク探索(NAS)は、分類やセマンティックセグメンテーションといった様々なハイレベルな視覚タスクに顕著な成功を収めている。
NASアルゴリズムの根底にある考え方は、ネットワークが一連の操作(例えば、異なるフィルタサイズでの畳み込み)の中から選ぶことができるようにすることであり、目の前の問題に適応した最適なアーキテクチャを見つけることができる。
しかし、これまでNASの成功はステレオマッチングのような低レベルの幾何学的視覚タスクでは楽しめなかった。
これは、人間が設計した最先端のディープステレオマッチングネットワークがすでにサイズがかなり大きいことによるところもある。
このような大規模構造にNASを直接適用することは、現在利用可能な主流コンピューティングリソースに基づいて計算的に禁止されている。
本稿では,タスク固有の人的知識をニューラルネットワーク検索フレームワークに組み込むことで,ディープステレオマッチングのための最初のエンドツーエンド階層型NASフレームワークを提案する。
具体的には、深いステレオマッチングのためのゴールド標準パイプライン(すなわち、機能抽出 -- 機能ボリューム構築と高密度マッチング)に従って、パイプライン全体のアーキテクチャを共同で最適化します。
広範な実験により,検索したネットワークが最先端のディープステレオマッチングアーキテクチャを上回っており,kitti stereo 2012,2015,ミドルベリーベンチマークでトップ1にランクインし,ネットワークサイズと推論速度を大幅に改善したsceneflowデータセットではトップ1にランクインした。
コードはhttps://github.com/XuelianCheng/LEAStereoで公開されている。
関連論文リスト
- DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - GeNAS: Neural Architecture Search with Better Generalization [14.92869716323226]
最近のニューラルアーキテクチャサーチ(NAS)アプローチは、対象データに対して優れたネットワークを見つけるために、検証損失または精度に依存している。
そこで本研究では,より一般化した探索型アーキテクチャのためのニューラルアーキテクチャ探索手法について検討する。
論文 参考訳(メタデータ) (2023-05-15T12:44:54Z) - NASiam: Efficient Representation Learning using Neural Architecture
Search for Siamese Networks [76.8112416450677]
シームズネットワークは、自己教師付き視覚表現学習(SSL)を実現するための最も傾向のある方法の1つである。
NASiamは、初めて微分可能なNASを使用して、多層パーセプトロンプロジェクタと予測器(エンコーダ/予測器ペア)を改善する新しいアプローチである。
NASiamは、小規模(CIFAR-10/CIFAR-100)と大規模(画像Net)画像分類データセットの両方で競合性能を達成し、わずか数GPU時間しかかからない。
論文 参考訳(メタデータ) (2023-01-31T19:48:37Z) - Generic Neural Architecture Search via Regression [27.78105839644199]
我々は、ジェネリックNAS(GenNAS)と呼ばれる新規で汎用的なニューラルアーキテクチャサーチ(NAS)フレームワークを提案する。
GenNASはタスク固有のラベルを使用せず、代わりに、アーキテクチャ評価のために手動で設計された合成信号基盤のセットにtextitregressionを採用する。
次に,下流タスク固有のラベルを用いた合成信号の組み合わせを最適化するタスクの自動探索を提案する。
論文 参考訳(メタデータ) (2021-08-04T08:21:12Z) - Weak NAS Predictors Are All You Need [91.11570424233709]
最近の予測器ベースのnasアプローチは、アーキテクチャとパフォーマンスのペアをサンプリングし、プロキシの精度を予測するという2つの重要なステップで問題を解決しようとする。
私たちはこのパラダイムを、アーキテクチャ空間全体をカバーする複雑な予測子から、ハイパフォーマンスなサブスペースへと徐々に進む弱い予測子へとシフトさせます。
NAS-Bench-101 および NAS-Bench-201 で最高の性能のアーキテクチャを見つけるためのサンプルを少なくし、NASNet 検索空間における最先端の ImageNet パフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-02-21T01:58:43Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - Stage-Wise Neural Architecture Search [65.03109178056937]
ResNetやNASNetのような現代の畳み込みネットワークは、多くのコンピュータビジョンアプリケーションで最先端の結果を得た。
これらのネットワークは、同じ解像度で表現を操作するレイヤのセットであるステージで構成されている。
各ステージにおけるレイヤー数の増加はネットワークの予測能力を向上させることが示されている。
しかし、結果として得られるアーキテクチャは、浮動小数点演算、メモリ要求、推論時間の観点から計算的に高価になる。
論文 参考訳(メタデータ) (2020-04-23T14:16:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。