論文の概要: Instance and Pair-Aware Dynamic Networks for Re-Identification
- arxiv url: http://arxiv.org/abs/2103.05395v1
- Date: Tue, 9 Mar 2021 12:34:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 14:57:29.889913
- Title: Instance and Pair-Aware Dynamic Networks for Re-Identification
- Title(参考訳): 再同定のためのインスタンスとペアアウェア動的ネットワーク
- Authors: Bingliang Jiao and Xin Tan and Lu Yang and Yunlong Wang and Peng Wang
- Abstract要約: Re-identification (ReID) は、異なるカメラで同じインスタンスを識別することです。
インスタンスとペアアウェア動的ネットワークという,新しいエンドツーエンドのトレーニング可能な動的畳み込みフレームワークを提案する。
いくつかのデータセットでは、我々のアルゴリズムは最先端の手法よりも優れており、また、我々のアルゴリズムは同等のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 16.32740680438257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Re-identification (ReID) is to identify the same instance across different
cameras. Existing ReID methods mostly utilize alignment-based or
attention-based strategies to generate effective feature representations.
However, most of these methods only extract general feature by employing single
input image itself, overlooking the exploration of relevance between comparing
images. To fill this gap, we propose a novel end-to-end trainable dynamic
convolution framework named Instance and Pair-Aware Dynamic Networks in this
paper. The proposed model is composed of three main branches where a
self-guided dynamic branch is constructed to strengthen instance-specific
features, focusing on every single image. Furthermore, we also design a
mutual-guided dynamic branch to generate pair-aware features for each pair of
images to be compared. Extensive experiments are conducted in order to verify
the effectiveness of our proposed algorithm. We evaluate our algorithm in
several mainstream person and vehicle ReID datasets including CUHK03,
DukeMTMCreID, Market-1501, VeRi776 and VehicleID. In some datasets our
algorithm outperforms state-of-the-art methods and in others, our algorithm
achieves a comparable performance.
- Abstract(参考訳): Re-identification (ReID) は、異なるカメラで同じインスタンスを識別することです。
既存のReID手法は主にアライメントベースの戦略やアライメントベースの戦略を利用して効果的な特徴表現を生成する。
しかし、これらの方法のほとんどは、単一の入力画像自体を使用して一般的な特徴を抽出し、比較画像間の関連性の探索を無視するだけです。
本稿では、このギャップを埋めるために、Instance and Pair-Aware Dynamic Networksという新しいエンドツーエンドのトレーニング可能な動的畳み込みフレームワークを提案する。
提案モデルは,各画像に焦点をあて,インスタンス固有の特徴を強化するために自己誘導動的分岐を構築する3つのメインブランチで構成されている。
さらに,比較対象画像のペア認識機能を生成するための相互誘導型動的分岐も設計した。
提案アルゴリズムの有効性を検証するため,大規模な実験を行った。
cuhk03, dukemtmcreid, market-1501, veri776, vehicleidなどの主要人物および車両のreidデータセットでアルゴリズムを評価した。
いくつかのデータセットでは、我々のアルゴリズムは最先端の手法よりも優れており、また、我々のアルゴリズムは同等のパフォーマンスを達成する。
関連論文リスト
- Mismatched: Evaluating the Limits of Image Matching Approaches and Benchmarks [9.388897214344572]
2次元画像からの3次元3次元再構成はコンピュータビジョンにおける活発な研究分野である。
伝統的にこの作業にはパラメトリック技術が用いられてきた。
近年の進歩は、学習ベースの方法にシフトしている。
論文 参考訳(メタデータ) (2024-08-29T11:16:34Z) - Ensemble Quadratic Assignment Network for Graph Matching [52.20001802006391]
グラフマッチングはコンピュータビジョンやパターン認識において一般的に用いられる技法である。
最近のデータ駆動型アプローチは、グラフマッチングの精度を著しく改善した。
データ駆動手法と従来の手法の利点を組み合わせたグラフニューラルネットワーク(GNN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-11T06:34:05Z) - Dynamic Visual Semantic Sub-Embeddings and Fast Re-Ranking [0.5242869847419834]
情報エントロピーを低減するために動的ビジュアルセマンティックサブエンベッドディングフレームワーク(DVSE)を提案する。
生成した候補埋め込みに様々な意味的変動を捉えるよう促すため,混合分布を構築した。
3つのベンチマークデータセット上の4つの画像特徴エンコーダと2つのテキスト特徴エンコーダを用いて,既存のセットベース手法と比較した。
論文 参考訳(メタデータ) (2023-09-15T04:39:11Z) - Learning Image Deraining Transformer Network with Dynamic Dual
Self-Attention [46.11162082219387]
本稿では,動的二重自己アテンション(DDSA)を用いた画像デコライニング変換器を提案する。
具体的には、トップk近似計算に基づいて、最も有用な類似度値のみを選択し、スパースアテンションを実現する。
また,高品質な定位結果を得るためのより正確な表現を実現するために,新しい空間拡張フィードフォワードネットワーク(SEFN)を開発した。
論文 参考訳(メタデータ) (2023-08-15T13:59:47Z) - Feature Decoupling-Recycling Network for Fast Interactive Segmentation [79.22497777645806]
近年のインタラクティブセグメンテーション手法では,入力としてソースイメージ,ユーザガイダンス,従来予測されていたマスクを反復的に取り込んでいる。
本稿では,本質的な相違点に基づいてモデリングコンポーネントを分離するFDRN(Feature Decoupling-Recycling Network)を提案する。
論文 参考訳(メタデータ) (2023-08-07T12:26:34Z) - Unifying Flow, Stereo and Depth Estimation [121.54066319299261]
本稿では3つの動作と3次元知覚タスクのための統一的な定式化とモデルを提案する。
これら3つのタスクを、統一された高密度対応マッチング問題として定式化する。
我々のモデルは、モデルアーキテクチャとパラメータがタスク間で共有されているため、自然にクロスタスク転送を可能にします。
論文 参考訳(メタデータ) (2022-11-10T18:59:54Z) - Reuse your features: unifying retrieval and feature-metric alignment [3.845387441054033]
DRANは視覚的ローカライゼーションの3段階の機能を生成できる最初のネットワークである。
公開ベンチマークの挑戦的な条件下では、堅牢性と正確性の観点から競争性能を達成する。
論文 参考訳(メタデータ) (2022-04-13T10:42:00Z) - Fusing Local Similarities for Retrieval-based 3D Orientation Estimation
of Unseen Objects [70.49392581592089]
我々は,モノクロ画像から未確認物体の3次元配向を推定する作業に取り組む。
我々は検索ベースの戦略に従い、ネットワークがオブジェクト固有の特徴を学習するのを防ぐ。
また,LineMOD,LineMOD-Occluded,T-LESSのデータセットを用いた実験により,本手法が従来の手法よりもはるかに優れた一般化をもたらすことが示された。
論文 参考訳(メタデータ) (2022-03-16T08:53:00Z) - Contextual Similarity Aggregation with Self-attention for Visual
Re-ranking [96.55393026011811]
本稿では,自己注意を伴う文脈的類似性集約による視覚的再ランク付け手法を提案する。
提案手法の汎用性と有効性を示すため,4つのベンチマークデータセットの総合的な実験を行った。
論文 参考訳(メタデータ) (2021-10-26T06:20:31Z) - Summarize and Search: Learning Consensus-aware Dynamic Convolution for
Co-Saliency Detection [139.10628924049476]
人間は、まず、グループ全体のコンセンサス知識を要約し、その後、各画像内の対応するオブジェクトを検索することで、共相検出を行う。
以前の方法は、通常、最初のプロセスで堅牢性、スケーラビリティ、安定性を欠き、第2のプロセスでイメージ機能とコンセンサス機能を融合させる。
本稿では,新たなコンセンサスを考慮した動的畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-01T12:06:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。