論文の概要: PV-NAS: Practical Neural Architecture Search for Video Recognition
- arxiv url: http://arxiv.org/abs/2011.00826v2
- Date: Tue, 3 Nov 2020 02:33:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 12:14:43.873986
- Title: PV-NAS: Practical Neural Architecture Search for Video Recognition
- Title(参考訳): PV-NAS:ビデオ認識のための実用的なニューラルネットワーク探索
- Authors: Zihao Wang, Chen Lin, Lu Sheng, Junjie Yan, Jing Shao
- Abstract要約: ビデオタスクのためのディープニューラルネットワークは高度にカスタマイズされており、そのようなネットワークの設計にはドメインの専門家と高価な試行錯誤テストが必要である。
ネットワークアーキテクチャ検索の最近の進歩により、画像認識性能は大幅に向上した。
本研究では,実用的ビデオニューラルアーキテクチャ探索(PV-NAS)を提案する。
- 参考スコア(独自算出の注目度): 83.77236063613579
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, deep learning has been utilized to solve video recognition problem
due to its prominent representation ability. Deep neural networks for video
tasks is highly customized and the design of such networks requires domain
experts and costly trial and error tests. Recent advance in network
architecture search has boosted the image recognition performance in a large
margin. However, automatic designing of video recognition network is less
explored. In this study, we propose a practical solution, namely Practical
Video Neural Architecture Search (PV-NAS).Our PV-NAS can efficiently search
across tremendous large scale of architectures in a novel spatial-temporal
network search space using the gradient based search methods. To avoid sticking
into sub-optimal solutions, we propose a novel learning rate scheduler to
encourage sufficient network diversity of the searched models. Extensive
empirical evaluations show that the proposed PV-NAS achieves state-of-the-art
performance with much fewer computational resources. 1) Within light-weight
models, our PV-NAS-L achieves 78.7% and 62.5% Top-1 accuracy on Kinetics-400
and Something-Something V2, which are better than previous state-of-the-art
methods (i.e., TSM) with a large margin (4.6% and 3.4% on each dataset,
respectively), and 2) among median-weight models, our PV-NAS-M achieves the
best performance (also a new record)in the Something-Something V2 dataset.
- Abstract(参考訳): 近年、深層学習は、その顕著な表現能力により、映像認識の問題を解決するために利用されてきた。
ビデオタスク用のディープニューラルネットワークは高度にカスタマイズされており、そのようなネットワークの設計にはドメインエキスパートとコストのかかる試行とエラーテストが必要である。
ネットワークアーキテクチャ検索の最近の進歩により、画像認識性能は大幅に向上した。
しかし,ビデオ認識ネットワークの自動設計は少ない。
本研究では,実用的ビデオニューラルアーキテクチャ探索(PV-NAS)を提案する。
我々のPV-NASは、勾配に基づく探索手法を用いて、新しい時空間ネットワーク探索空間における巨大なアーキテクチャを効率的に探索することができる。
そこで本研究では,ネットワークの多様性を十分に高めるための学習率スケジューラを提案する。
広範な実証実験により,提案したPV-NASは,計算資源をはるかに少なくして最先端の性能を実現することが示された。
1) 軽量モデルでは, pv-nas-l は 78.7% と 62.5% のtop-1 精度を達成し, 従来の最先端手法 (tsm) よりも優れている(各データセットで 4.6% と 3.4% である)。
2) 中心重みモデルでは,PV-NAS-MがSomething V2データセットで最高の性能(新記録)を達成した。
関連論文リスト
- A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [58.855741970337675]
ニューラルアーキテクチャサーチ(NAS)により、リサーチ者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - DONNAv2 -- Lightweight Neural Architecture Search for Vision tasks [6.628409795264665]
計算効率の良いニューラルアーキテクチャ蒸留 - DONNAv2 のための次世代ニューラルアーキテクチャ設計について述べる。
DONNAv2は、より大きなデータセットに対して、DONNAの計算コストを10倍削減する。
NASサーチスペースの品質を向上させるため、DONNAv2はブロック知識蒸留フィルタを利用して推論コストの高いブロックを除去する。
論文 参考訳(メタデータ) (2023-09-26T04:48:50Z) - Lightweight Monocular Depth with a Novel Neural Architecture Search
Method [46.97673710849343]
本稿では,軽量な単分子深度推定モデルを生成するために,LiDNASと呼ばれる新しいニューラルネットワーク探索手法を提案する。
我々は,階層の多様性と探索空間の大きさのバランスをとるために,事前に定義されたバックボーンネットワーク上に探索空間を構築した。
LiDNAS最適化モデルは、NYU-Depth-v2、KITTI、ScanNet上でのコンパクトな深さ推定よりも優れた結果が得られる。
論文 参考訳(メタデータ) (2021-08-25T08:06:28Z) - ViPNAS: Efficient Video Pose Estimation via Neural Architecture Search [94.90294600817215]
高速なオンラインビデオポーズ推定のための空間的・時間的ネットワークに対する新しいニューラルネットワーク探索(NAS)手法(ViPNAS)を提案する。
空間レベルでは,ネットワーク深さ,幅,カーネルサイズ,グループ数,注目度などの5つの異なる次元の探索空間を慎重に設計する。
時間レベルでは、一連の時間的特徴融合から検索し、複数のビデオフレームの合計精度と速度を最適化する。
論文 参考訳(メタデータ) (2021-05-21T06:36:40Z) - Searching Efficient Model-guided Deep Network for Image Denoising [61.65776576769698]
モデルガイド設計とNAS(MoD-NAS)をつなぐ新しいアプローチを提案する。
MoD-NASは、再利用可能な幅探索戦略と密結合された探索ブロックを用いて、各層の操作を自動的に選択する。
いくつかの一般的なデータセットに対する実験結果から、我々のMoD-NASは現在の最先端手法よりもPSNR性能が向上していることが示された。
論文 参考訳(メタデータ) (2021-04-06T14:03:01Z) - NAS-TC: Neural Architecture Search on Temporal Convolutions for Complex
Action Recognition [45.168746142597946]
ニューラルアーキテクチャサーチ-時間畳み込み(NAS-TC)と呼ばれる新しい処理フレームワークを提案する。
第1段階では、古典的なCNNネットワークがバックボーンネットワークとして使われ、計算集約的な特徴抽出タスクが完了する。
第2段階では、セルへの簡単な縫合探索を用いて、比較的軽量な長時間時間依存情報抽出を完了させる。
論文 参考訳(メタデータ) (2021-03-17T02:02:11Z) - OPANAS: One-Shot Path Aggregation Network Architecture Search for Object
Detection [82.04372532783931]
近年、ニューラルアーキテクチャサーチ (NAS) が特徴ピラミッドネットワーク (FPN) の設計に活用されている。
本稿では,探索効率と検出精度を大幅に向上させる,ワンショットパス集約ネットワークアーキテクチャ探索(OPANAS)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-08T01:48:53Z) - AttentiveNAS: Improving Neural Architecture Search via Attentive
Sampling [39.58754758581108]
2段階のニューラルネットワーク探索(NAS)は、顕著な精度と効率を達成する。
2段階のNASは、トレーニング中に探索空間からのサンプリングを必要とし、最終的な探索モデルの精度に直接影響を及ぼす。
本稿では,より優れたパレートを実現するため,サンプリング戦略の改善に焦点を当てたAttentiveNASを提案する。
発見されたモデルファミリであるAttentiveNASは、ImageNet上で77.3%から80.7%の精度でトップ1の精度を実現し、BigNASやOne-for-Allネットワークを含むSOTAモデルより優れています。
論文 参考訳(メタデータ) (2020-11-18T00:15:23Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。