論文の概要: ScaleNAS: One-Shot Learning of Scale-Aware Representations for Visual
Recognition
- arxiv url: http://arxiv.org/abs/2011.14584v1
- Date: Mon, 30 Nov 2020 07:11:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 05:14:23.004922
- Title: ScaleNAS: One-Shot Learning of Scale-Aware Representations for Visual
Recognition
- Title(参考訳): ScaleNAS: 視覚認識のためのスケールアウェア表現のワンショット学習
- Authors: Hsin-Pai Cheng, Feng Liang, Meng Li, Bowen Cheng, Feng Yan, Hai Li,
Vikas Chandra, Yiran Chen
- Abstract要約: 本研究では,尺度認識表現のワンショット学習手法であるScaleNASを提案する。
本研究では,2つのタスクに対する高解像度モデルの作成にScaleNAS,人間のポーズ推定にScaleNet-P,セマンティックセグメンテーションにScaleNet-Sを使用する。
ボトムアップの人間のポーズ推定にScaleNet-Pを適用すると、最先端のHigherHRNetを超える。
- 参考スコア(独自算出の注目度): 32.46472211626195
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scale variance among different sizes of body parts and objects is a
challenging problem for visual recognition tasks. Existing works usually design
dedicated backbone or apply Neural architecture Search(NAS) for each task to
tackle this challenge. However, existing works impose significant limitations
on the design or search space. To solve these problems, we present ScaleNAS, a
one-shot learning method for exploring scale-aware representations. ScaleNAS
solves multiple tasks at a time by searching multi-scale feature aggregation.
ScaleNAS adopts a flexible search space that allows an arbitrary number of
blocks and cross-scale feature fusions. To cope with the high search cost
incurred by the flexible space, ScaleNAS employs one-shot learning for
multi-scale supernet driven by grouped sampling and evolutionary search.
Without further retraining, ScaleNet can be directly deployed for different
visual recognition tasks with superior performance. We use ScaleNAS to create
high-resolution models for two different tasks, ScaleNet-P for human pose
estimation and ScaleNet-S for semantic segmentation. ScaleNet-P and ScaleNet-S
outperform existing manually crafted and NAS-based methods in both tasks. When
applying ScaleNet-P to bottom-up human pose estimation, it surpasses the
state-of-the-art HigherHRNet. In particular, ScaleNet-P4 achieves 71.6% AP on
COCO test-dev, achieving new state-of-the-art result.
- Abstract(参考訳): 体部や物体のサイズの違いによるスケールのばらつきは、視覚認識タスクにとって難しい問題である。
既存の作業は通常、専用のバックボーンを設計するか、それぞれのタスクにNeural Architecture Search(NAS)を適用する。
しかし、既存の作品では、設計や探索空間にかなりの制限が課されている。
そこで本研究では,スケール認識表現を探索するワンショット学習手法であるscalenasを提案する。
ScaleNASは、マルチスケール機能アグリゲーションを検索することで、複数のタスクを同時に解決する。
ScaleNASはフレキシブルな検索スペースを採用しており、任意のブロック数とクロススケール機能融合を可能にする。
フレキシブルスペースによって引き起こされる高い探索コストに対応するため、ScaleNASはグループサンプリングと進化探索によって駆動されるマルチスケールスーパーネットに対してワンショット学習を採用している。
さらなる再トレーニングなしに、ScaleNetは、優れたパフォーマンスで、さまざまな視覚認識タスクに対して直接デプロイできる。
本研究では,2つのタスクに対する高解像度モデルの作成にScaleNAS,人間のポーズ推定にScaleNet-P,セマンティックセグメンテーションにScaleNet-Sを使用する。
ScaleNet-PとScaleNet-Sは、両方のタスクで既存の手作業およびNASベースのメソッドより優れている。
ボトムアップの人間のポーズ推定にScaleNet-Pを適用すると、最先端のHigherHRNetを超える。
特に、ScaleNet-P4 は COCO test-dev で71.6% AP を獲得し、新しい最先端の結果を達成した。
関連論文リスト
- DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - DATA: Domain-Aware and Task-Aware Pre-training [94.62676913928831]
我々は、自己教師付き学習(SSL)に特化した、シンプルで効果的なNASアプローチであるDataを提示する。
提案手法は,画像分類,オブジェクト検出,セマンティックセグメンテーションなど,下流タスクにおける計算コストの広い範囲にわたる有望な結果を実現する。
論文 参考訳(メタデータ) (2022-03-17T02:38:49Z) - FBNetV5: Neural Architecture Search for Multiple Tasks in One Run [28.645664534127516]
FBNetV5は、計算コストと人的労力を大幅に削減して、様々な視覚タスクのためのニューラルネットワークを探索できるフレームワークである。
具体的には,1)単純で包括的かつ移動可能な検索空間,2)目標タスクのトレーニングパイプラインと切り離されたマルチタスク探索プロセス,3)タスク数に依存しない計算コストで複数のタスクのアーキテクチャを同時に探索するアルゴリズムを設計する。
我々は、画像分類、オブジェクト検出、セマンティックセグメンテーションという3つの基本的なビジョンタスクをターゲットに、提案したFBNetV5を評価する。
論文 参考訳(メタデータ) (2021-11-19T02:07:34Z) - Across-Task Neural Architecture Search via Meta Learning [1.225795556154044]
Adequate labeled data and expensive compute resources is the prequisites for the success of Neural Architecture search (NAS)
限られた計算リソースとデータを持つメタ学習シナリオにNASを適用するのは難しい。
本稿では、勾配に基づくメタラーニングとEAに基づくNASを組み合わせることで、タスク間ニューラルネットワーク探索(AT-NAS)を提案する。
論文 参考訳(メタデータ) (2021-10-12T09:07:33Z) - HR-NAS: Searching Efficient High-Resolution Neural Architectures with
Lightweight Transformers [48.74623838201632]
高分解能表現(HR)は、セグメンテーション、検出、ポーズ推定といった密集した予測タスクに不可欠である。
この研究はHR-NASと呼ばれる新しいNAS手法を提案し、異なるタスクに対して効率的かつ正確なネットワークを見つけることができる。
HR-NASは、3つの密集予測タスクと画像分類タスクに対して、パフォーマンスとFLOPの間の最先端のトレードオフを達成することができる。
論文 参考訳(メタデータ) (2021-06-11T18:11:36Z) - Searching Efficient Model-guided Deep Network for Image Denoising [61.65776576769698]
モデルガイド設計とNAS(MoD-NAS)をつなぐ新しいアプローチを提案する。
MoD-NASは、再利用可能な幅探索戦略と密結合された探索ブロックを用いて、各層の操作を自動的に選択する。
いくつかの一般的なデータセットに対する実験結果から、我々のMoD-NASは現在の最先端手法よりもPSNR性能が向上していることが示された。
論文 参考訳(メタデータ) (2021-04-06T14:03:01Z) - MS-NAS: Multi-Scale Neural Architecture Search for Medical Image
Segmentation [16.206524842952636]
本稿では,ネットワークバックボーンからセル操作までのマルチスケール検索空間を特徴とするマルチスケールNASフレームワークを提案する。
セグメンテーションのための様々なデータセットにおいて、MS-NASは最先端の手法より優れており、0.6-5.4% mIOUと0.4-3.5%のDSC改善を実現している。
論文 参考訳(メタデータ) (2020-07-13T02:02:00Z) - MTL-NAS: Task-Agnostic Neural Architecture Search towards
General-Purpose Multi-Task Learning [71.90902837008278]
汎用マルチタスク学習(GP-MTL)にニューラルアーキテクチャサーチ(NAS)を導入することを提案する。
異なるタスクの組み合わせに対応するため、GP-MTLネットワークを単一タスクのバックボーンに分割する。
また,探索されたアーキテクチャ間の性能ギャップを埋める単一ショット勾配に基づく探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-03-31T09:49:14Z) - Scalable NAS with Factorizable Architectural Parameters [102.51428615447703]
Neural Architecture Search (NAS)は、機械学習とコンピュータビジョンにおける新たなトピックである。
本稿では,多数の候補演算子をより小さな部分空間に分解することで,スケーラブルなアルゴリズムを提案する。
検索コストが少なめに増加し、再トレーニングに余分なコストがかからないため、これまで調査されなかった興味深いアーキテクチャが見つかる。
論文 参考訳(メタデータ) (2019-12-31T10:26:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。