論文の概要: FlowNAS: Neural Architecture Search for Optical Flow Estimation
- arxiv url: http://arxiv.org/abs/2207.01271v1
- Date: Mon, 4 Jul 2022 09:05:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-07-05 15:16:54.943922
- Title: FlowNAS: Neural Architecture Search for Optical Flow Estimation
- Title(参考訳): flownas:光フロー推定のためのニューラルアーキテクチャ探索
- Authors: Zhiwei Lin, Tingting Liang, Taihong Xiao, Yongtao Wang, Zhi Tang and
Ming-Hsuan Yang
- Abstract要約: 本研究では,フロー推定タスクにおいて,より優れたエンコーダアーキテクチャを自動で見つけるために,FlowNASというニューラルアーキテクチャ探索手法を提案する。
実験の結果、スーパーネットワークから受け継いだ重み付きアーキテクチャは、KITTI上で4.67%のF1-allエラーを達成していることがわかった。
- 参考スコア(独自算出の注目度): 65.44079917247369
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Existing optical flow estimators usually employ the network architectures
typically designed for image classification as the encoder to extract per-pixel
features. However, due to the natural difference between the tasks, the
architectures designed for image classification may be sub-optimal for flow
estimation. To address this issue, we propose a neural architecture search
method named FlowNAS to automatically find the better encoder architecture for
flow estimation task. We first design a suitable search space including various
convolutional operators and construct a weight-sharing super-network for
efficiently evaluating the candidate architectures. Then, for better training
the super-network, we propose Feature Alignment Distillation, which utilizes a
well-trained flow estimator to guide the training of super-network. Finally, a
resource-constrained evolutionary algorithm is exploited to find an optimal
architecture (i.e., sub-network). Experimental results show that the discovered
architecture with the weights inherited from the super-network achieves 4.67\%
F1-all error on KITTI, an 8.4\% reduction of RAFT baseline, surpassing
state-of-the-art handcrafted models GMA and AGFlow, while reducing the model
complexity and latency. The source code and trained models will be released in
https://github.com/VDIGPKU/FlowNAS.
- Abstract(参考訳): 既存の光フロー推定器は通常、ピクセル単位の特徴を抽出するエンコーダとして画像分類のために設計されたネットワークアーキテクチャを用いる。
しかし,タスク間の自然な違いから,画像分類のためのアーキテクチャは,フロー推定に最適である可能性がある。
この問題に対処するために,フロー推定タスクのためのより良いエンコーダアーキテクチャを自動的に見つけるために,flownasというニューラルネットワーク探索手法を提案する。
まず,様々な畳み込み演算子を含む適切な探索空間を設計し,候補アーキテクチャを効率的に評価するための重み共有スーパーネットワークを構築する。
そこで,本研究では,高訓練フロー推定器を用いてスーパーネットワークの訓練を指導する機能アライメント蒸留法を提案する。
最後に、リソース制約付き進化的アルゴリズムが最適なアーキテクチャ(すなわちサブネットワーク)を見つけるために利用される。
実験の結果、超ネットワークから受け継いだ重み付きアーキテクチャは、RAFTベースラインの8.4倍のF1-全誤差をKITTIで達成し、最先端の手作りモデルGMAとAGFlowを上回り、モデルの複雑さとレイテンシを低減した。
ソースコードとトレーニングされたモデルはhttps://github.com/VDIGPKU/FlowNASでリリースされる。
関連論文リスト
- Neural Architecture Search using Particle Swarm and Ant Colony
Optimization [0.0]
本稿では,OpenNASのSwarm Intelligence (SI)コンポーネントを用いたCNNのトレーニングと最適化に焦点を当てる。
画像の分類において,OpenNAS(Neural Architecture Search)のオープンソースツールを統合するシステムを開発した。
論文 参考訳(メタデータ) (2024-03-06T15:23:26Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Pruning-as-Search: Efficient Neural Architecture Search via Channel
Pruning and Structural Reparameterization [50.50023451369742]
プルーニング・アズ・サーチ(Pruning-as-Search、PaS)は、必要なサブネットワークを自動的に効率的に検索するエンドツーエンドのプルーニング手法である。
提案したアーキテクチャは,ImageNet-1000分類タスクにおいて,1.0%$ Top-1精度で先行技術より優れていた。
論文 参考訳(メタデータ) (2022-06-02T17:58:54Z) - The Nonlinearity Coefficient -- A Practical Guide to Neural Architecture
Design [3.04585143845864]
我々は、アーキテクチャが比較的高いテストやトレーニング後のタスクのトレーニングエラーを達成できるかどうかを、トレーニングなしで予測できる手法を開発する。
その後、アーキテクチャ定義自体の観点でエラーを説明し、アーキテクチャを変更するツールを開発します。
最初の大きな貢献は、ニューラルネットワークアーキテクチャの'非線形性の度合い'がそのパフォーマンスの背後にある重要な因果的要因であることを示すことです。
論文 参考訳(メタデータ) (2021-05-25T20:47:43Z) - Enhanced Gradient for Differentiable Architecture Search [17.431144144044968]
ネットワーク性能の同時改善とネットワークの複雑性低減を目的としたニューラルネットワークアーキテクチャ探索アルゴリズムを提案する。
提案するフレームワークは,ブロックレベルの検索とネットワークレベルの検索という2段階のネットワークアーキテクチャを自動構築する。
実験の結果,本手法は画像分類において,すべての手作りネットワークよりも優れていた。
論文 参考訳(メタデータ) (2021-03-23T13:27:24Z) - Hierarchical Neural Architecture Search for Deep Stereo Matching [131.94481111956853]
本稿では, ディープステレオマッチングのための最初のエンドツーエンド階層型NASフレームワークを提案する。
我々のフレームワークは、タスク固有の人間の知識をニューラルアーキテクチャ検索フレームワークに組み込んでいる。
KITTI stereo 2012、2015、Middleburyベンチマークで1位、SceneFlowデータセットで1位にランクインしている。
論文 参考訳(メタデータ) (2020-10-26T11:57:37Z) - Neural Architecture Optimization with Graph VAE [21.126140965779534]
連続空間におけるネットワークアーキテクチャを最適化するための効率的なNAS手法を提案する。
フレームワークは、エンコーダ、パフォーマンス予測器、複雑性予測器、デコーダの4つのコンポーネントを共同で学習する。
論文 参考訳(メタデータ) (2020-06-18T07:05:48Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。