論文の概要: EASNet: Searching Elastic and Accurate Network Architecture for Stereo
Matching
- arxiv url: http://arxiv.org/abs/2207.09796v1
- Date: Wed, 20 Jul 2022 10:26:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 12:45:04.588901
- Title: EASNet: Searching Elastic and Accurate Network Architecture for Stereo
Matching
- Title(参考訳): EASNet:ステレオマッチングのための弾力性と正確なネットワークアーキテクチャの検索
- Authors: Qiang Wang, Shaohuai Shi, Kaiyong Zhao, Xiaowen Chu
- Abstract要約: ステレオマッチングのための弾性的かつ正確なネットワークをトレーニングすることを提案する。
EASNetは、さまざまなコンピューティング機能を持つデバイス上で、さまざまな3Dアーキテクチャ設定をサポートする。
我々の実験によると、EASNetは最先端の人間設計アーキテクチャとNASベースのアーキテクチャの両方より優れています。
- 参考スコア(独自算出の注目度): 18.89677182772221
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advanced studies have spent considerable human efforts on optimizing
network architectures for stereo matching but hardly achieved both high
accuracy and fast inference speed. To ease the workload in network design,
neural architecture search (NAS) has been applied with great success to various
sparse prediction tasks, such as image classification and object detection.
However, existing NAS studies on the dense prediction task, especially stereo
matching, still cannot be efficiently and effectively deployed on devices of
different computing capabilities. To this end, we propose to train an elastic
and accurate network for stereo matching (EASNet) that supports various 3D
architectural settings on devices with different computing capabilities. Given
the deployment latency constraint on the target device, we can quickly extract
a sub-network from the full EASNet without additional training while the
accuracy of the sub-network can still be maintained. Extensive experiments show
that our EASNet outperforms both state-of-the-art human-designed and NAS-based
architectures on Scene Flow and MPI Sintel datasets in terms of model accuracy
and inference speed. Particularly, deployed on an inference GPU, EASNet
achieves a new SOTA 0.73 EPE on the Scene Flow dataset with 100 ms, which is
4.5$\times$ faster than LEAStereo with a better quality model.
- Abstract(参考訳): 最近の高度な研究は、ステレオマッチングのためのネットワークアーキテクチャの最適化にかなりの労力を費やしているが、高い精度と高速な推論速度は達成できない。
ネットワーク設計における作業負荷を軽減するため、ニューラルネットワークサーチ(NAS)は、画像分類やオブジェクト検出など、さまざまなスパース予測タスクに大きく成功している。
しかし、密集した予測タスク、特にステレオマッチングに関する既存のnas研究は、異なる計算能力を持つデバイスに効率的かつ効果的にデプロイすることはできない。
そこで本研究では,様々な計算能力を有するデバイス上での様々な3dアーキテクチャ設定をサポートする,弾性的かつ正確なステレオマッチング(easnet)ネットワークを訓練することを提案する。
ターゲットデバイス上のデプロイメント遅延の制約を考慮すると、サブネットワークの正確性を維持しながら、追加のトレーニングをすることなく、完全なEASNetからサブネットワークを素早く抽出できる。
EASNetは、モデル精度と推論速度の観点から、Scene FlowとMPI Sintelデータセット上で、最先端の人間設計アーキテクチャとNASベースのアーキテクチャの両方を上回ります。
特に、推論GPU上にデプロイされたEASNetは、100msのScene Flowデータセットで新しいSOTA 0.73 EPEを実現している。
関連論文リスト
- Multi-objective Differentiable Neural Architecture Search [62.16997839075649]
本研究では,パフォーマンスとハードウェアメトリクスのトレードオフのために,ユーザの好みを符号化するNASアルゴリズムを提案する。
提案手法は,定性的に異なる探索空間とデータセットをまたいだ既存のMOO NAS法より優れている。
論文 参考訳(メタデータ) (2024-02-28T10:09:04Z) - Lightweight Neural Architecture Search for Temporal Convolutional
Networks at the Edge [21.72253397805102]
この研究は特に、時系列処理のための畳み込みモデルであるTCN(Temporal Convolutional Networks)に焦点を当てている。
我々は,TNの最も特異なアーキテクチャパラメータの最適化を明示的に目標とする最初のNASツールを提案する。
提案したNASは,音声および生体信号を含む4つの実世界のエッジ関連タスクでテストする。
論文 参考訳(メタデータ) (2023-01-24T19:47:40Z) - Evolutionary Neural Cascade Search across Supernetworks [68.8204255655161]
ENCAS - Evolutionary Neural Cascade Searchを紹介する。
ENCASは、複数の事前訓練されたスーパーネットを探索するために使用することができる。
我々は、一般的なコンピュータビジョンベンチマークでEMCASをテストする。
論文 参考訳(メタデータ) (2022-03-08T11:06:01Z) - Rapid Neural Architecture Search by Learning to Generate Graphs from
Datasets [42.993720854755736]
本稿では,データセットと事前学習ネットワークからなるデータベース上で1度トレーニングした,効率的なニューラルサーチ(NAS)フレームワークを提案する。
我々は,NAS-Bench 201の検索空間から,ImageNet-1Kのサブセットとアーキテクチャに基づいてメタ学習を行った。
論文 参考訳(メタデータ) (2021-07-02T06:33:59Z) - Hierarchical Neural Architecture Search for Deep Stereo Matching [131.94481111956853]
本稿では, ディープステレオマッチングのための最初のエンドツーエンド階層型NASフレームワークを提案する。
我々のフレームワークは、タスク固有の人間の知識をニューラルアーキテクチャ検索フレームワークに組み込んでいる。
KITTI stereo 2012、2015、Middleburyベンチマークで1位、SceneFlowデータセットで1位にランクインしている。
論文 参考訳(メタデータ) (2020-10-26T11:57:37Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。