論文の概要: Lightweight Full-Convolutional Siamese Tracker
- arxiv url: http://arxiv.org/abs/2310.05392v3
- Date: Fri, 12 Jan 2024 12:34:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-16 00:07:18.918350
- Title: Lightweight Full-Convolutional Siamese Tracker
- Title(参考訳): 軽量フルコンボリューションシアームトラッカー
- Authors: Yunfeng Li, Bo Wang, Xueyi Wu, Zhuoyan Liu, Ye Li
- Abstract要約: 本稿では,LightFCと呼ばれる軽量完全畳み込み式シームズトラッカーを提案する。
LightFCは、新しい効率的な相互相関モジュールと、新しい効率的なre-centerヘッドを採用している。
実験の結果、LightFCは性能、パラメータ、FlopsとFPSの最適なバランスを実現することがわかった。
- 参考スコア(独自算出の注目度): 4.903759699116597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although single object trackers have achieved advanced performance, their
large-scale models hinder their application on limited resources platforms.
Moreover, existing lightweight trackers only achieve a balance between 2-3
points in terms of parameters, performance, Flops and FPS. To achieve the
optimal balance among these points, this paper proposes a lightweight
full-convolutional Siamese tracker called LightFC. LightFC employs a novel
efficient cross-correlation module (ECM) and a novel efficient rep-center head
(ERH) to improve the feature representation of the convolutional tracking
pipeline. The ECM uses an attention-like module design, which conducts spatial
and channel linear fusion of fused features and enhances the nonlinearity of
the fused features. Additionally, it refers to successful factors of current
lightweight trackers and introduces skip-connections and reuse of search area
features. The ERH reparameterizes the feature dimensional stage in the standard
center-head and introduces channel attention to optimize the bottleneck of key
feature flows. Comprehensive experiments show that LightFC achieves the optimal
balance between performance, parameters, Flops and FPS. The precision score of
LightFC outperforms MixFormerV2-S on LaSOT and TNL2K by 3.7 % and 6.5 %,
respectively, while using 5x fewer parameters and 4.6x fewer Flops. Besides,
LightFC runs 2x faster than MixFormerV2-S on CPUs. In addition, a
higher-performance version named LightFC-vit is proposed by replacing a more
powerful backbone network. The code and raw results can be found at
https://github.com/LiYunfengLYF/LightFC.
- Abstract(参考訳): 単一のオブジェクトトラッカーは高度なパフォーマンスを達成したが、大規模なモデルは限られたリソースプラットフォーム上でのアプリケーションを妨げる。
さらに、既存の軽量トラッカーはパラメータ、パフォーマンス、Flops、FPSの2~3ポイントのバランスしか達成していない。
これらの点の最適バランスを実現するために,LightFCと呼ばれる軽量完全畳み込み式シームズトラッカーを提案する。
lightfcは、新しい効率的な相互相関モジュール(ecm)と新しい効率的なリプライセンターヘッド(erh)を使用して、畳み込み追跡パイプラインの特徴表現を改善する。
ecmはアテンションライクなモジュール設計を使用して、融合特徴の空間的およびチャネル線形融合を行い、融合特徴の非線形性を高める。
さらに、現在の軽量トラッカーの成功要因を示し、スキップ接続と検索エリア機能の再利用を導入している。
ERHは、標準中心頭部における特徴次元ステージを再パラメータ化し、重要な特徴フローのボトルネックを最適化するためにチャンネルアテンションを導入する。
総合的な実験により、LightFCは性能、パラメータ、FlopsとFPSの最適なバランスを実現する。
LightFCの精度スコアはLaSOTとTNL2KのMixFormerV2-Sをそれぞれ3.7%、TNL2Kは6.5%、パラメータは5倍、Flopsは4.6倍である。
さらに、LightFCはCPU上でMixFormerV2-Sより2倍高速で動作する。
さらに、より強力なバックボーンネットワークを置き換えることで、LightFC-vitと呼ばれる高性能バージョンが提案されている。
コードと生の結果はhttps://github.com/LiYunfengLYF/LightFCで確認できる。
関連論文リスト
- RepNeXt: A Fast Multi-Scale CNN using Structural Reparameterization [8.346566205092433]
軽量畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は、パラメータ効率と低レイテンシに好まれる。
本研究では,資源拘束型アプリケーションに適した多目的視覚バックボーンを開発するために,CNNとViTの相補的な利点について検討する。
論文 参考訳(メタデータ) (2024-06-23T04:11:12Z) - Lightweight Salient Object Detection in Optical Remote-Sensing Images
via Semantic Matching and Edge Alignment [61.45639694373033]
セマンティックマッチングとエッジアライメントに基づく光リモートセンシング画像(ORSI-SOD)のための新しい軽量ネットワークSeaNetを提案する。
具体的には、機能抽出のための軽量MobileNet-V2、高レベルの機能のための動的セマンティックマッチングモジュール(DSMM)、推論のためのポータブルデコーダが含まれる。
論文 参考訳(メタデータ) (2023-01-07T04:33:51Z) - Lightweight and Progressively-Scalable Networks for Semantic
Segmentation [100.63114424262234]
マルチスケール学習フレームワークは,セマンティックセグメンテーションを向上する有効なモデルのクラスと見なされてきた。
本稿では,畳み込みブロックの設計と,複数スケールにわたる相互作用の仕方について,徹底的に解析する。
我々は,軽量で拡張性の高いネットワーク(LPS-Net)を考案した。
論文 参考訳(メタデータ) (2022-07-27T16:00:28Z) - SlimFL: Federated Learning with Superposition Coding over Slimmable
Neural Networks [56.68149211499535]
フェデレートラーニング(FL)は、デバイスの分散コンピューティング機能を活用した効率的なコミュニケーションとコンピューティングのための重要な実現手段である。
本稿では、FLと幅調整可能なスリムブルニューラルネットワーク(SNN)を統合した新しい学習フレームワークを提案する。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2022-03-26T15:06:13Z) - FEAR: Fast, Efficient, Accurate and Robust Visual Tracker [2.544539499281093]
私たちは、新しい、高速で、効率的で、正確で、堅牢なシームズ・ビジュアル・トラッカーであるFEARを紹介します。
FEAR-XSトラッカーは、LightTrack [62]より2.4倍小さく、4.3倍高速で精度が高い。
論文 参考訳(メタデータ) (2021-12-15T08:28:55Z) - Neural Calibration for Scalable Beamforming in FDD Massive MIMO with
Implicit Channel Estimation [10.775558382613077]
チャネル推定とビームフォーミングは、周波数分割二重化(FDD)大規模マルチインプット多重出力(MIMO)システムにおいて重要な役割を果たす。
受信したアップリンクパイロットに応じて,基地局のビームフォーマを直接最適化する深層学習方式を提案する。
エンド・ツー・エンドの設計のスケーラビリティを向上させるために,ニューラルキャリブレーション法を提案する。
論文 参考訳(メタデータ) (2021-08-03T14:26:14Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - MicroNet: Towards Image Recognition with Extremely Low FLOPs [117.96848315180407]
MicroNetは計算コストの極めて低い効率的な畳み込みニューラルネットワークである。
MicroNetのファミリは、低いFLOP体制における最先端技術よりも大きなパフォーマンス向上を実現している。
例えば、MicroNet-M1は12のMFLOPを持つImageNet分類において61.1%のトップ-1の精度を達成し、MobileNetV3を11.3%上回っている。
論文 参考訳(メタデータ) (2020-11-24T18:59:39Z) - Federated Learning via Intelligent Reflecting Surface [30.935389187215474]
オーバー・ザ・エア・コンピューティング・アルゴリズム(FL)は,複数のアクセスチャネルの波形重畳特性を利用して高速なモデルアグリゲーションを実現することができる。
本稿では,AirCompベースのFLのための高速かつ信頼性の高いモデルアグリゲーションを実現するための2段階最適化フレームワークを提案する。
シミュレーションの結果,提案するフレームワークとIRSの展開により,ベースラインアルゴリズムよりもトレーニング損失が低く,FL予測精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-11-10T11:29:57Z) - Optimization-driven Machine Learning for Intelligent Reflecting Surfaces
Assisted Wireless Networks [82.33619654835348]
インテリジェントサーフェス(IRS)は、個々の散乱素子の位相シフトを制御して無線チャネルを再形成するために用いられる。
散乱素子の規模が大きいため、受動ビームフォーミングは一般に高い計算複雑性によって挑戦される。
本稿では、IRS支援無線ネットワークの性能向上のための機械学習(ML)アプローチに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-29T08:39:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。