論文の概要: Strength in Diversity: Multi-Branch Representation Learning for Vehicle
Re-Identification
- arxiv url: http://arxiv.org/abs/2310.01129v1
- Date: Mon, 2 Oct 2023 12:03:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 22:14:15.749068
- Title: Strength in Diversity: Multi-Branch Representation Learning for Vehicle
Re-Identification
- Title(参考訳): 多様性の強さ:車両再識別のためのマルチブランチ表現学習
- Authors: Eurico Almeida, Bruno Silva, Jorge Batista
- Abstract要約: 本稿では、車両再識別(V-ReID)を改善するための効率的で軽量なマルチブランチ深層構造を提案する。
特徴の多様性と特徴の識別性を向上するマルチブランチアーキテクチャを設計するためのグループ畳み込みとロスブランチ分割の組み合わせを提案する。
- 参考スコア(独自算出の注目度): 1.415880606410688
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents an efficient and lightweight multi-branch deep
architecture to improve vehicle re-identification (V-ReID). While most V-ReID
work uses a combination of complex multi-branch architectures to extract robust
and diversified embeddings towards re-identification, we advocate that simple
and lightweight architectures can be designed to fulfill the Re-ID task without
compromising performance.
We propose a combination of Grouped-convolution and Loss-Branch-Split
strategies to design a multi-branch architecture that improve feature diversity
and feature discriminability. We combine a ResNet50 global branch architecture
with a BotNet self-attention branch architecture, both designed within a
Loss-Branch-Split (LBS) strategy. We argue that specialized
loss-branch-splitting helps to improve re-identification tasks by generating
specialized re-identification features. A lightweight solution using grouped
convolution is also proposed to mimic the learning of loss-splitting into
multiple embeddings while significantly reducing the model size. In addition,
we designed an improved solution to leverage additional metadata, such as
camera ID and pose information, that uses 97% less parameters, further
improving re-identification performance.
In comparison to state-of-the-art (SoTA) methods, our approach outperforms
competing solutions in Veri-776 by achieving 85.6% mAP and 97.7% CMC1 and
obtains competitive results in Veri-Wild with 88.1% mAP and 96.3% CMC1.
Overall, our work provides important insights into improving vehicle
re-identification and presents a strong basis for other retrieval tasks. Our
code is available at the
https://github.com/videturfortuna/vehicle_reid_itsc2023.
- Abstract(参考訳): 本稿では,車両再識別(v-reid)を改善するため,効率良く軽量なマルチブランチ深層アーキテクチャを提案する。
多くのV-ReID作業では、複雑なマルチブランチアーキテクチャを組み合わせて、堅牢で多様な埋め込みを抽出して再同定するが、単純で軽量なアーキテクチャは、性能を損なうことなくRe-IDタスクを実現するように設計されている。
機能多様性と特徴識別性を向上するマルチブランチアーキテクチャを設計するためのグループ畳み込みとロスブランチ分割の組み合わせを提案する。
ResNet50グローバルブランチアーキテクチャとBotNetセルフアテンションブランチアーキテクチャを組み合わせることで、どちらもLoss-Branch-Split(LBS)戦略で設計されています。
我々は、特殊損失分岐スプリッティングは、特殊再識別機能を生成することによって再識別タスクを改善するのに役立つと主張する。
グループ畳み込みを用いた軽量な解法も提案され, モデルサイズを大幅に削減しつつ, 複数埋め込みへのロススプリットの学習を模倣する。
さらに、カメラIDやポーズ情報などの追加メタデータを活用するための改良されたソリューションを設計し、パラメータを97%削減し、さらに再識別性能を改善した。
The State-of-the-art(SoTA)法と比較して,本手法は85.6% mAPと97.7% CMC1を達成し,Veri-Wildの88.1% mAPと96.3% CMC1の競合ソリューションよりも優れていた。
本研究は,車両再識別の改善に関する重要な知見を提供し,他の検索タスクの強力な基盤を提供する。
私たちのコードはhttps://github.com/videturfortuna/vehicle_reid_itsc2023で利用可能です。
関連論文リスト
- Any Image Restoration with Efficient Automatic Degradation Adaptation [132.81912195537433]
本研究は, 各種劣化の相似性を有効かつ包括的修復に活用し, 共同埋設を実現する統一的な方法を提案する。
我々のネットワークは、モデルの複雑さをトレーニング可能なパラメータで約82%、FLOPで約85%削減しつつ、新しいSOTAレコードを設定している。
論文 参考訳(メタデータ) (2024-07-18T10:26:53Z) - Robust Ensemble Person Re-Identification via Orthogonal Fusion with Occlusion Handling [4.431087385310259]
排除は、個人再識別(ReID)における大きな課題の1つとして残されている。
本稿では,CNN と Transformer アーキテクチャを併用し,ロバストな特徴表現を生成する深層アンサンブルモデルを提案する。
論文 参考訳(メタデータ) (2024-03-29T18:38:59Z) - AaP-ReID: Improved Attention-Aware Person Re-identification [2.5761958263376745]
AaP-ReIDは、ResNetベースのアーキテクチャにチャネルの注意を組み込む、より効果的な人物ReIDの手法である。
提案手法は,Channel-Wise Attention Bottleneckブロックを組み込んで,特徴マップにおけるChannel-Wise Attention Bottleneckブロックの重要性を動的に調整することで特徴を識別することができる。
論文 参考訳(メタデータ) (2023-09-27T16:54:38Z) - Dynamic Enhancement Network for Partial Multi-modality Person
Re-identification [52.70235136651996]
複数のモーダルの表現能力を維持しつつ、任意のモダリティを欠くことができる新しい動的拡張ネットワーク(DENet)を設計する。
欠落状態は変更可能であるため、動的拡張モジュールを設計し、欠落状態に応じて動的にモダリティ特性を適応的に向上する。
論文 参考訳(メタデータ) (2023-05-25T06:22:01Z) - Learning Progressive Modality-shared Transformers for Effective
Visible-Infrared Person Re-identification [27.75907274034702]
我々は,能率VI-ReIDのためのPMT(Progressive Modality-Shared Transformer)という新しいディープラーニングフレームワークを提案する。
モダリティギャップの負の効果を低減するために、まず、グレースケールの画像を補助的なモダリティとして捉え、進歩的な学習戦略を提案する。
クラス内差が大きく,クラス間差が少ない問題に対処するために,識別中心損失を提案する。
論文 参考訳(メタデータ) (2022-12-01T02:20:16Z) - Deep Model Reassembly [60.6531819328247]
我々はDeep Model Reassembly(DeRy)と呼ばれる新しい知識伝達タスクを探索する。
DeRyの目標は、まず各モデルを固有のビルディングブロックに分割し、それから派生したブロックを選択的に再組み立てて、カスタマイズされたネットワークを生成することである。
ImageNetでは、最高の再組み立てモデルは微調整なしで78.6%のトップ1の精度を実現している。
論文 参考訳(メタデータ) (2022-10-24T10:16:13Z) - Decoupled and Memory-Reinforced Networks: Towards Effective Feature
Learning for One-Step Person Search [65.51181219410763]
歩行者検出と識別サブタスクを1つのネットワークで処理するワンステップ方式を開発しました。
現在のワンステップアプローチには2つの大きな課題があります。
本稿では,これらの問題を解決するために,分離メモリ強化ネットワーク(DMRNet)を提案する。
論文 参考訳(メタデータ) (2021-02-22T06:19:45Z) - Lightweight Multi-Branch Network for Person Re-Identification [6.353193172884524]
本稿では,資源効率の高いOSNetバックボーン上に構築されたマルチブランチアーキテクチャにおいて,グローバル,パートベース,チャネル機能を組み合わせた軽量ネットワークを提案する。
トレーニング手法と設計選択をうまく組み合わせることで, CUHK03ラベル付き, CUHK03検出, Market-1501で85.1% mAP / 87.2% rank1, 82.4% mAP / 84.9% rank1, 91.5% mAP / 96.3% rank1の最先端結果が得られる。
論文 参考訳(メタデータ) (2021-01-26T13:28:46Z) - ResNeSt: Split-Attention Networks [86.25490825631763]
このアーキテクチャは、異なるネットワークブランチにチャンネルワイズを応用し、機能間相互作用のキャプチャと多様な表現の学習の成功を活用する。
我々のモデルはResNeStと呼ばれ、画像分類の精度と遅延トレードオフにおいてEfficientNetより優れています。
論文 参考訳(メタデータ) (2020-04-19T20:40:31Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。