論文の概要: Lite-HRNet: A Lightweight High-Resolution Network
- arxiv url: http://arxiv.org/abs/2104.06403v1
- Date: Tue, 13 Apr 2021 17:59:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 14:38:10.454329
- Title: Lite-HRNet: A Lightweight High-Resolution Network
- Title(参考訳): Lite-HRNet:軽量高分解能ネットワーク
- Authors: Changqian Yu, Bin Xiao, Changxin Gao, Lu Yuan, Lei Zhang, Nong Sang,
Jingdong Wang
- Abstract要約: 人間のポーズ推定に有効な高分解能ネットワークLite-HRNetを提案する。
シャッフルブロックにおける高用量(1x1)の畳み込みが計算ボトルネックとなる。
シャッフルブロックにおけるコストのかかる(1x1)畳み込みを置き換えるために,軽量な条件付きチャネル重み付けを導入する。
- 参考スコア(独自算出の注目度): 97.17242913089464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an efficient high-resolution network, Lite-HRNet, for human pose
estimation. We start by simply applying the efficient shuffle block in
ShuffleNet to HRNet (high-resolution network), yielding stronger performance
over popular lightweight networks, such as MobileNet, ShuffleNet, and Small
HRNet.
We find that the heavily-used pointwise (1x1) convolutions in shuffle blocks
become the computational bottleneck. We introduce a lightweight unit,
conditional channel weighting, to replace costly pointwise (1x1) convolutions
in shuffle blocks. The complexity of channel weighting is linear w.r.t the
number of channels and lower than the quadratic time complexity for pointwise
convolutions. Our solution learns the weights from all the channels and over
multiple resolutions that are readily available in the parallel branches in
HRNet. It uses the weights as the bridge to exchange information across
channels and resolutions, compensating the role played by the pointwise (1x1)
convolution. Lite-HRNet demonstrates superior results on human pose estimation
over popular lightweight networks. Moreover, Lite-HRNet can be easily applied
to semantic segmentation task in the same lightweight manner. The code and
models have been publicly available at https://github.com/HRNet/Lite-HRNet.
- Abstract(参考訳): 人間のポーズ推定に有効な高分解能ネットワークLite-HRNetを提案する。
まず、ShuffleNetの効率的なシャッフルブロックをHRNet(高分解能ネットワーク)に適用するだけで、MobileNetやSmall HRNetといった一般的な軽量ネットワークよりもパフォーマンスが向上します。
シャッフルブロックの高用量(1x1)の畳み込みが計算ボトルネックとなる。
シャッフルブロックにおけるコストのかかる(1x1)畳み込みを置き換えるために,軽量な条件付きチャネル重み付けを導入する。
チャネル重み付けの複雑さは、チャネルの数で線形であり、ポイントワイド畳み込みの2次時間複雑性よりも低い。
我々のソリューションは、HRNetの並列ブランチで容易に利用できる全てのチャンネルと複数の解像度から重みを学習します。
重みをブリッジとして、チャネルと解像度間で情報を交換し、ポイントワイズ (1x1) 畳み込みによって果たす役割を補償する。
Lite-HRNetは、一般的な軽量ネットワークよりも人間のポーズ推定において優れた結果を示す。
さらに、Lite-HRNetはセマンティックセグメンテーションタスクにも、同じように簡単に適用できる。
コードとモデルはhttps://github.com/HRNet/Lite-HRNetで公開されている。
関連論文リスト
- Slimmable Pruned Neural Networks [1.8275108630751844]
S-Net上の各サブネットワークの精度は、同一サイズの個別訓練ネットワークよりも劣る。
プリミングによって学習されたサブネットワーク構造を有するSlimmable Pruned Neural Networks (SP-Net)を提案する。
SP-Netは任意の種類のチャネルプルーニング手法と組み合わせることができ、NASモデルのような複雑な処理や時間を要するアーキテクチャ検索は不要である。
論文 参考訳(メタデータ) (2022-12-07T02:54:15Z) - Lightweight and Progressively-Scalable Networks for Semantic
Segmentation [100.63114424262234]
マルチスケール学習フレームワークは,セマンティックセグメンテーションを向上する有効なモデルのクラスと見なされてきた。
本稿では,畳み込みブロックの設計と,複数スケールにわたる相互作用の仕方について,徹底的に解析する。
我々は,軽量で拡張性の高いネットワーク(LPS-Net)を考案した。
論文 参考訳(メタデータ) (2022-07-27T16:00:28Z) - Searching for Network Width with Bilaterally Coupled Network [75.43658047510334]
この問題に対処するため、BCNet(Bilaterally Coupled Network)と呼ばれる新しいスーパーネットを導入する。
BCNetでは、各チャネルは高度に訓練され、同じ量のネットワーク幅を担っているため、ネットワーク幅をより正確に評価することができる。
本稿では,Channel-Bench-Macroというマクロ構造に対するオープンソースのワイド・ベンチマークを提案し,ワイド・サーチ・アルゴリズムの比較を行った。
論文 参考訳(メタデータ) (2022-03-25T15:32:46Z) - ShuffleBlock: Shuffle to Regularize Deep Convolutional Neural Networks [35.67192058479252]
本稿では,ディープ畳み込みネットワークにおける正規化手法としてのチャネルシャッフルの動作について検討する。
トレーニング中のチャネルのランダムシャッフルは性能を大幅に低下させるが、小さなパッチをランダムにシャッフルすると性能が大幅に向上することを示した。
ShuffleBlockモジュールは実装が容易で、CIFARとImageNetデータセットの画像分類タスクにおいて、いくつかのベースラインネットワークの性能を改善している。
論文 参考訳(メタデータ) (2021-06-17T10:23:00Z) - BCNet: Searching for Network Width with Bilaterally Coupled Network [56.14248440683152]
この問題に対処するため、BCNet(Bilaterally Coupled Network)と呼ばれる新しいスーパーネットを導入する。
BCNetでは、各チャネルは高度に訓練され、同じ量のネットワーク幅を担っているため、ネットワーク幅をより正確に評価することができる。
提案手法は,他のベースライン手法と比較して,最先端あるいは競合的な性能を実現する。
論文 参考訳(メタデータ) (2021-05-21T18:54:03Z) - Locally Free Weight Sharing for Network Width Search [55.155969155967284]
ネットワーク幅の検索は、ハードウェア予算でディープニューラルネットワークをスリム化する効果的な方法である。
そこで我々は,各幅をよりよく評価するために,局所自由度共有戦略(CafeNet)を提案する。
提案手法により,NASネットワークの効率を0.41%向上させることができる。
論文 参考訳(メタデータ) (2021-02-10T04:36:09Z) - EfficientNet-eLite: Extremely Lightweight and Efficient CNN Models for
Edge Devices by Network Candidate Search [13.467017642143583]
本稿では,資源使用量と性能のトレードオフを研究するために,ネットワーク候補探索(NCS)を提案する。
実験では,EfficientNet-B0から候補CNNモデルを収集し,幅,深さ,入力解像度,複合スケールダウンなど,様々な方法でスケールダウンする。
Application-Specific Integrated Circuit (ASIC)でCNNエッジアプリケーションをさらに採用するために、EfficientNet-eLiteのアーキテクチャを調整し、よりハードウェアフレンドリなバージョンであるEfficientNet-HFを構築します。
論文 参考訳(メタデータ) (2020-09-16T01:11:10Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。