論文の概要: EASNet: Searching Elastic and Accurate Network Architecture for Stereo
Matching
- arxiv url: http://arxiv.org/abs/2207.09796v1
- Date: Wed, 20 Jul 2022 10:26:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 12:45:04.588901
- Title: EASNet: Searching Elastic and Accurate Network Architecture for Stereo
Matching
- Title(参考訳): EASNet:ステレオマッチングのための弾力性と正確なネットワークアーキテクチャの検索
- Authors: Qiang Wang, Shaohuai Shi, Kaiyong Zhao, Xiaowen Chu
- Abstract要約: ステレオマッチングのための弾性的かつ正確なネットワークをトレーニングすることを提案する。
EASNetは、さまざまなコンピューティング機能を持つデバイス上で、さまざまな3Dアーキテクチャ設定をサポートする。
我々の実験によると、EASNetは最先端の人間設計アーキテクチャとNASベースのアーキテクチャの両方より優れています。
- 参考スコア(独自算出の注目度): 18.89677182772221
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advanced studies have spent considerable human efforts on optimizing
network architectures for stereo matching but hardly achieved both high
accuracy and fast inference speed. To ease the workload in network design,
neural architecture search (NAS) has been applied with great success to various
sparse prediction tasks, such as image classification and object detection.
However, existing NAS studies on the dense prediction task, especially stereo
matching, still cannot be efficiently and effectively deployed on devices of
different computing capabilities. To this end, we propose to train an elastic
and accurate network for stereo matching (EASNet) that supports various 3D
architectural settings on devices with different computing capabilities. Given
the deployment latency constraint on the target device, we can quickly extract
a sub-network from the full EASNet without additional training while the
accuracy of the sub-network can still be maintained. Extensive experiments show
that our EASNet outperforms both state-of-the-art human-designed and NAS-based
architectures on Scene Flow and MPI Sintel datasets in terms of model accuracy
and inference speed. Particularly, deployed on an inference GPU, EASNet
achieves a new SOTA 0.73 EPE on the Scene Flow dataset with 100 ms, which is
4.5$\times$ faster than LEAStereo with a better quality model.
- Abstract(参考訳): 最近の高度な研究は、ステレオマッチングのためのネットワークアーキテクチャの最適化にかなりの労力を費やしているが、高い精度と高速な推論速度は達成できない。
ネットワーク設計における作業負荷を軽減するため、ニューラルネットワークサーチ(NAS)は、画像分類やオブジェクト検出など、さまざまなスパース予測タスクに大きく成功している。
しかし、密集した予測タスク、特にステレオマッチングに関する既存のnas研究は、異なる計算能力を持つデバイスに効率的かつ効果的にデプロイすることはできない。
そこで本研究では,様々な計算能力を有するデバイス上での様々な3dアーキテクチャ設定をサポートする,弾性的かつ正確なステレオマッチング(easnet)ネットワークを訓練することを提案する。
ターゲットデバイス上のデプロイメント遅延の制約を考慮すると、サブネットワークの正確性を維持しながら、追加のトレーニングをすることなく、完全なEASNetからサブネットワークを素早く抽出できる。
EASNetは、モデル精度と推論速度の観点から、Scene FlowとMPI Sintelデータセット上で、最先端の人間設計アーキテクチャとNASベースのアーキテクチャの両方を上回ります。
特に、推論GPU上にデプロイされたEASNetは、100msのScene Flowデータセットで新しいSOTA 0.73 EPEを実現している。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Multi-objective Differentiable Neural Architecture Search [58.67218773054753]
本研究では,パフォーマンスとハードウェアメトリクスのトレードオフのために,ユーザの好みを符号化するNASアルゴリズムを提案する。
提案手法は,既存のMOO NAS手法を,定性的に異なる検索空間やデータセットの広い範囲で性能良くする。
論文 参考訳(メタデータ) (2024-02-28T10:09:04Z) - Mixture-of-Supernets: Improving Weight-Sharing Supernet Training with Architecture-Routed Mixture-of-Experts [55.470959564665705]
ウェイトシェアリングスーパーネットは、最先端のニューラルサーチフレームワークのパフォーマンス評価に不可欠である。
提案手法は,高速機械翻訳モデルのためのNASにおける最先端(SoTA)性能を実現する。
メモリ効率のよいタスク非依存のBERTモデルを構築するためにNASが優れている。
論文 参考訳(メタデータ) (2023-06-08T00:35:36Z) - Lightweight Neural Architecture Search for Temporal Convolutional
Networks at the Edge [21.72253397805102]
この研究は特に、時系列処理のための畳み込みモデルであるTCN(Temporal Convolutional Networks)に焦点を当てている。
我々は,TNの最も特異なアーキテクチャパラメータの最適化を明示的に目標とする最初のNASツールを提案する。
提案したNASは,音声および生体信号を含む4つの実世界のエッジ関連タスクでテストする。
論文 参考訳(メタデータ) (2023-01-24T19:47:40Z) - FLASH: Fast Neural Architecture Search with Hardware Optimization [7.263481020106725]
ニューラルアーキテクチャサーチ(NAS)は、効率的かつ高性能なディープニューラルネットワーク(DNN)を設計するための有望な手法である
本稿では,実ハードウェアプラットフォーム上でのDNNの精度と性能を協調的に最適化する,非常に高速なNAS手法であるFLASHを提案する。
論文 参考訳(メタデータ) (2021-08-01T23:46:48Z) - Rapid Neural Architecture Search by Learning to Generate Graphs from
Datasets [42.993720854755736]
本稿では,データセットと事前学習ネットワークからなるデータベース上で1度トレーニングした,効率的なニューラルサーチ(NAS)フレームワークを提案する。
我々は,NAS-Bench 201の検索空間から,ImageNet-1Kのサブセットとアーキテクチャに基づいてメタ学習を行った。
論文 参考訳(メタデータ) (2021-07-02T06:33:59Z) - Hierarchical Neural Architecture Search for Deep Stereo Matching [131.94481111956853]
本稿では, ディープステレオマッチングのための最初のエンドツーエンド階層型NASフレームワークを提案する。
我々のフレームワークは、タスク固有の人間の知識をニューラルアーキテクチャ検索フレームワークに組み込んでいる。
KITTI stereo 2012、2015、Middleburyベンチマークで1位、SceneFlowデータセットで1位にランクインしている。
論文 参考訳(メタデータ) (2020-10-26T11:57:37Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。