論文の概要: DCDLearn: Multi-order Deep Cross-distance Learning for Vehicle
Re-Identification
- arxiv url: http://arxiv.org/abs/2003.11315v2
- Date: Sat, 28 Mar 2020 04:34:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 03:34:50.025784
- Title: DCDLearn: Multi-order Deep Cross-distance Learning for Vehicle
Re-Identification
- Title(参考訳): DCDLearn: 車両再識別のための多階深層距離学習
- Authors: Rixing Zhu, Jianwu Fang, Hongke Xu, Hongkai Yu, Jianru Xue
- Abstract要約: 本稿では,車両再識別のための多階深層距離学習モデルを定式化する。
1ビューのCycleGANモデルは、網羅的で列挙的なクロスカメラマッチング問題を緩和するために開発された。
3台の車載Re-IDデータセットによる実験により,提案手法が最先端技術よりも大幅に改善できることが示されている。
- 参考スコア(独自算出の注目度): 22.547915009758256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vehicle re-identification (Re-ID) has become a popular research topic owing
to its practicability in intelligent transportation systems. Vehicle Re-ID
suffers the numerous challenges caused by drastic variation in illumination,
occlusions, background, resolutions, viewing angles, and so on. To address it,
this paper formulates a multi-order deep cross-distance learning
(\textbf{DCDLearn}) model for vehicle re-identification, where an efficient
one-view CycleGAN model is developed to alleviate exhaustive and enumerative
cross-camera matching problem in previous works and smooth the domain
discrepancy of cross cameras. Specially, we treat the transferred images and
the reconstructed images generated by one-view CycleGAN as multi-order
augmented data for deep cross-distance learning, where the cross distances of
multi-order image set with distinct identities are learned by optimizing an
objective function with multi-order augmented triplet loss and center loss to
achieve the camera-invariance and identity-consistency. Extensive experiments
on three vehicle Re-ID datasets demonstrate that the proposed method achieves
significant improvement over the state-of-the-arts, especially for the small
scale dataset.
- Abstract(参考訳): 自動車再識別(Re-ID)は、インテリジェント交通システムにおける実践性から、一般的な研究トピックとなっている。
車両のRe-IDは、照明、閉塞、背景、解像度、視角などの急激な変化によって引き起こされる多くの課題に悩まされている。
そこで本論文では,車両再識別のための多階深度クロス距離学習(\textbf{DCDLearn})モデルを定式化し,一視点のCycleGANモデルを効率よく開発することにより,過去の作業における網羅的かつ列挙的なクロスカメラマッチング問題を緩和し,クロスカメラのドメイン不一致を円滑にする。
特に, 1-view CycleGAN が生成した変換画像と再構成画像を深層距離学習のための多階拡張データとして扱い, 多階増設三重項損失と中心損失で目的関数を最適化することにより, 異なる同一性を持つ多階画像の交差距離を学習し, カメラの不変性と同一性を実現する。
3台の車載Re-IDデータセットに対する大規模な実験により、提案手法が最先端、特に小規模データセットに対して大幅な改善を達成できることが示されている。
関連論文リスト
- Cross-Modality Perturbation Synergy Attack for Person Re-identification [66.48494594909123]
相互モダリティReIDの主な課題は、異なるモダリティ間の視覚的差異を効果的に扱うことである。
既存の攻撃方法は、目に見える画像のモダリティの特徴に主に焦点を当てている。
本研究では,クロスモーダルReIDに特化して設計されたユニバーサル摂動攻撃を提案する。
論文 参考訳(メタデータ) (2024-01-18T15:56:23Z) - Multimodal Transformer Using Cross-Channel attention for Object Detection in Remote Sensing Images [1.662438436885552]
マルチモーダル融合は、複数のモーダルからのデータを融合することで精度を高めることが決定されている。
早期に異なるチャネル間の関係をマッピングするための新しいマルチモーダル融合戦略を提案する。
本手法は,中期・後期の手法とは対照的に,早期の融合に対処することにより,既存の手法と比較して,競争力や性能に優れる。
論文 参考訳(メタデータ) (2023-10-21T00:56:11Z) - Two Approaches to Supervised Image Segmentation [55.616364225463066]
本研究は、深層学習とマルチセットニューロンのアプローチの比較実験を開発する。
ディープラーニングアプローチは、画像セグメンテーションの実行の可能性を確認した。
代替のマルチセット手法では、計算資源をほとんど必要とせずに精度を向上することができた。
論文 参考訳(メタデータ) (2023-07-19T16:42:52Z) - Multi-query Vehicle Re-identification: Viewpoint-conditioned Network,
Unified Dataset and New Metric [30.344288906037345]
マルチクエリー車両Re-IDと呼ばれる,より現実的でアクセスしやすいタスクを提案する。
我々は、異なる車両視点からの補完情報を適応的に組み合わせた、新しい視点条件付きネットワーク(VCNet)を設計する。
次に、実生活の交通監視システムから6142台のカメラで撮影された、統一されたベンチマークデータセットを作成します。
第3に,クロスシーン認識能力を測定する平均クロスシーン精度(mCSP)と呼ばれる新しい評価指標を設計する。
論文 参考訳(メタデータ) (2023-05-25T06:22:03Z) - DETR4D: Direct Multi-View 3D Object Detection with Sparse Attention [50.11672196146829]
サラウンドビュー画像を用いた3次元物体検出は、自動運転にとって必須の課題である。
マルチビュー画像における3次元オブジェクト検出のためのスパースアテンションと直接特徴クエリを探索するトランスフォーマーベースのフレームワークであるDETR4Dを提案する。
論文 参考訳(メタデータ) (2022-12-15T14:18:47Z) - Discriminative-Region Attention and Orthogonal-View Generation Model for
Vehicle Re-Identification [7.5366501970852955]
複数の課題は、視覚に基づく車両のRe-ID手法の適用を妨げる。
提案したDRAモデルでは,識別領域の特徴を自動的に抽出し,類似した車両を識別することができる。
また、OVGモデルでは、入力ビュー機能に基づいてマルチビュー機能を生成し、視点ミスマッチの影響を低減することができる。
論文 参考訳(メタデータ) (2022-04-28T07:46:03Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Camera-Tracklet-Aware Contrastive Learning for Unsupervised Vehicle
Re-Identification [4.5471611558189124]
車両識別ラベルのないマルチカメラ・トラックレット情報を用いたカメラ・トラックレット対応コントラスト学習(CTACL)を提案する。
提案したCTACLは、全車両画像(全車両画像)を複数のカメラレベルの画像に分割し、コントラスト学習を行う。
本稿では,ビデオベースおよび画像ベース車両のRe-IDデータセットに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2021-09-14T02:12:54Z) - Discriminative Feature Representation with Spatio-temporal Cues for
Vehicle Re-identification [0.0]
車両識別(re-ID)は、様々なカメラが様々な道路網で撮影したギャラリー画像から対象車両を発見し、マッチングすることを目的としている。
車両用リIDのための新しい手がかり(DFR-ST)を用いた特徴表現を提案する。
外観や時間的情報を含むことで、埋め込み空間で堅牢な特徴を構築することができる。
論文 参考訳(メタデータ) (2020-11-13T10:50:21Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z) - Cross-Resolution Adversarial Dual Network for Person Re-Identification
and Beyond [59.149653740463435]
人物再識別(re-ID)は、同一人物の画像をカメラビューでマッチングすることを目的としている。
カメラと関心のある人の距離が異なるため、解像度ミスマッチが期待できる。
本稿では,クロスレゾリューションな人物のリIDに対処する新たな生成的対向ネットワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T07:21:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。