論文の概要: Highly Efficient Salient Object Detection with 100K Parameters
- arxiv url: http://arxiv.org/abs/2003.05643v2
- Date: Sun, 2 Aug 2020 01:36:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 14:58:03.552970
- Title: Highly Efficient Salient Object Detection with 100K Parameters
- Title(参考訳): 100kパラメータを用いた高効率サルエント物体検出
- Authors: Shang-Hua Gao, Yong-Qiang Tan, Ming-Ming Cheng, Chengze Lu, Yunpeng
Chen, Shuicheng Yan
- Abstract要約: そこで我々は,段階内および複数ステージのマルチスケール機能を効率的に活用するために,フレキシブルな畳み込みモジュールであるOctoConv(gOctConv)を提案する。
我々は、非常に軽量なモデル、すなわちCSNetを構築し、一般的なオブジェクト検出ベンチマークで、約0.2%(100k)の大規模モデルで同等のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 137.74898755102387
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Salient object detection models often demand a considerable amount of
computation cost to make precise prediction for each pixel, making them hardly
applicable on low-power devices. In this paper, we aim to relieve the
contradiction between computation cost and model performance by improving the
network efficiency to a higher degree. We propose a flexible convolutional
module, namely generalized OctConv (gOctConv), to efficiently utilize both
in-stage and cross-stages multi-scale features, while reducing the
representation redundancy by a novel dynamic weight decay scheme. The effective
dynamic weight decay scheme stably boosts the sparsity of parameters during
training, supports learnable number of channels for each scale in gOctConv,
allowing 80% of parameters reduce with negligible performance drop. Utilizing
gOctConv, we build an extremely light-weighted model, namely CSNet, which
achieves comparable performance with about 0.2% parameters (100k) of large
models on popular salient object detection benchmarks.
- Abstract(参考訳): サルエント物体検出モデルは、各画素を正確に予測するためにかなりの計算コストを必要とすることが多く、低消費電力デバイスでは適用できない。
本稿では,ネットワーク効率を向上し,計算コストとモデル性能の矛盾を解消することを目的とする。
我々は,新しい動的重み減衰法により表現冗長性を低減しつつ,ステージ内およびクロスステージ両方のマルチスケール特徴を効率的に活用する,フレキシブルな畳み込みモジュールOctoConv(gOctConv)を提案する。
効果的な動的重み減衰スキームは、トレーニング中のパラメータのスパーシティを安定的に向上させ、goctconvの各スケールで学習可能なチャネル数をサポートし、性能低下によってパラメータの80%を削減できる。
goctconvを利用することで、非常に軽量なcsnetモデルを構築し、一般的なsalientオブジェクト検出ベンチマークで、約0.2%の大規模モデルのパラメータ(100k)と同等のパフォーマンスを実現します。
関連論文リスト
- Low-Resolution Neural Networks [0.552480439325792]
本研究では,パラメータビット精度がモデル性能に与える影響を,標準32ビットモデルと比較して検討した。
分析されたモデルには、完全に接続された層、畳み込み層、トランスフォーマーブロックがある。
メモリ要求の低減と計算効率の向上により、最適化されたニューラルネットワークモデルに新たな時代がもたらされることが示唆されている。
論文 参考訳(メタデータ) (2025-02-12T21:19:28Z) - Dynamic Adapter Meets Prompt Tuning: Parameter-Efficient Transfer Learning for Point Cloud Analysis [51.14136878142034]
ポイントクラウド分析は、事前訓練されたモデルのポイントクラウドの転送によって、優れたパフォーマンスを実現している。
モデル適応のための既存の方法は通常、高い計算コストに依存するため、非効率な全てのモデルパラメータを更新する。
本稿では,タスク性能とパラメータ効率のトレードオフを考慮した,ポイントクラウド解析のためのパラメータ効率変換学習を提案する。
論文 参考訳(メタデータ) (2024-03-03T08:25:04Z) - Do deep neural networks utilize the weight space efficiently? [2.9914612342004503]
TransformersやConvolutional Neural Networks(CNN)といったディープラーニングモデルは、さまざまなドメインに革命をもたらしたが、パラメータ集約的な自然ハマーをリソース制約された設定に配置する。
重み行列の列空間と行空間を利用する新しい概念を導入し、性能を損なうことなくモデルパラメータを大幅に削減する。
私たちのアプローチはBottleneck層とAttention層の両方に適用され、パラメータを効果的に半分にします。
論文 参考訳(メタデータ) (2024-01-26T21:51:49Z) - Latency-aware Unified Dynamic Networks for Efficient Image Recognition [72.8951331472913]
LAUDNetは動的ネットワークの理論的および実用的な効率ギャップを橋渡しするフレームワークである。
3つの主要な動的パラダイム - 適応型計算、動的層スキップ、動的チャネルスキップ - を統合している。
これにより、V100,3090やTX2 GPUのようなプラットフォーム上で、ResNetのようなモデルの遅延を50%以上削減できる。
論文 参考訳(メタデータ) (2023-08-30T10:57:41Z) - E^2VPT: An Effective and Efficient Approach for Visual Prompt Tuning [55.50908600818483]
新しいタスクのための微調整された大規模な事前学習型ビジョンモデルは、パラメーター集約化が進んでいる。
本稿では,大規模なトランスフォーマーモデル適応のための効果的かつ効率的なビジュアルプロンプトチューニング(E2VPT)手法を提案する。
提案手法は2つのベンチマークにおいて,最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2023-07-25T19:03:21Z) - MoEfication: Conditional Computation of Transformer Models for Efficient
Inference [66.56994436947441]
トランスフォーマーベースの事前学習言語モデルは、パラメータ容量が大きいため、ほとんどのNLPタスクにおいて優れた性能を実現することができるが、計算コストも大きい。
スパースアクティベーション現象に基づく条件計算により,大規模モデル推論を高速化する。
そこで本研究では,モデルサイズが等しいMoE(Mix-of-experts)バージョン,すなわちMoEficationに変換することを提案する。
論文 参考訳(メタデータ) (2021-10-05T02:14:38Z) - Efficient End-to-End Speech Recognition Using Performers in Conformers [74.71219757585841]
モデルサイズに加えて,モデルアーキテクチャの複雑さを低減することを提案する。
提案モデルにより,1000万のパラメータと線形複雑度を持つLibriSpeechコーパス上での競合性能が得られた。
論文 参考訳(メタデータ) (2020-11-09T05:22:57Z) - Compression of descriptor models for mobile applications [26.498907514590165]
深層ニューラルネットワークにおける計算コスト,モデルサイズ,マッチング精度のトレードオフを評価する。
我々は、深度的に分離可能な層を用いることで、学習重量の顕著な冗長性を観察する。
本稿では,標準的な畳み込みと奥行き分離可能な畳み込みを補間する手段を提供する,畳み込み-Depthwise-Pointwise(CDP)層を提案する。
論文 参考訳(メタデータ) (2020-01-09T17:00:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。