論文の概要: Debiased Dual-Invariant Defense for Adversarially Robust Person Re-Identification
- arxiv url: http://arxiv.org/abs/2511.09933v1
- Date: Fri, 14 Nov 2025 01:19:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.58881
- Title: Debiased Dual-Invariant Defense for Adversarially Robust Person Re-Identification
- Title(参考訳): 対向的ロバストな人物再同定のためのデバイアスドデュアル不変防御法
- Authors: Yuhang Zhou, Yanxiang Zhao, Zhongyun Hua, Zhipu Liu, Zhaoquan Gu, Qing Liao, Leo Yu Zhang,
- Abstract要約: 人物再識別(ReID)は、歩行者軌道追跡などの現実の多くの応用において、基本的な課題である。
Person ReIDモデルは、歩行者画像に対する知覚不能な摂動が完全に誤った予測を引き起こすような、敵の攻撃に非常に敏感である。
本稿では,2つの相からなる二重不変防衛フレームワークを提案する。
- 参考スコア(独自算出の注目度): 52.63017280231648
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Person re-identification (ReID) is a fundamental task in many real-world applications such as pedestrian trajectory tracking. However, advanced deep learning-based ReID models are highly susceptible to adversarial attacks, where imperceptible perturbations to pedestrian images can cause entirely incorrect predictions, posing significant security threats. Although numerous adversarial defense strategies have been proposed for classification tasks, their extension to metric learning tasks such as person ReID remains relatively unexplored. Moreover, the several existing defenses for person ReID fail to address the inherent unique challenges of adversarially robust ReID. In this paper, we systematically identify the challenges of adversarial defense in person ReID into two key issues: model bias and composite generalization requirements. To address them, we propose a debiased dual-invariant defense framework composed of two main phases. In the data balancing phase, we mitigate model bias using a diffusion-model-based data resampling strategy that promotes fairness and diversity in training data. In the bi-adversarial self-meta defense phase, we introduce a novel metric adversarial training approach incorporating farthest negative extension softening to overcome the robustness degradation caused by the absence of classifier. Additionally, we introduce an adversarially-enhanced self-meta mechanism to achieve dual-generalization for both unseen identities and unseen attack types. Experiments demonstrate that our method significantly outperforms existing state-of-the-art defenses.
- Abstract(参考訳): 人物再識別(ReID)は、歩行者軌道追跡などの現実の多くの応用において、基本的な課題である。
しかし、高度なディープラーニングベースのReIDモデルは、歩行者画像に対する知覚不能な摂動が完全に誤った予測を生じさせ、重大なセキュリティ上の脅威を生じさせるような、敵の攻撃に非常に敏感である。
分類タスクには多くの敵防衛戦略が提案されているが、人物ReIDのようなメートル法学習タスクへの拡張はいまだに未検討である。
さらに、既存の ReID に対するいくつかの防衛策は、敵意的に堅牢な ReID の固有の固有の課題に対処することができない。
本稿では,ReIDにおける対人防御の課題を,モデルバイアスと複合一般化要求の2つの主要な問題に体系的に識別する。
そこで本研究では,2つの相からなる非偏差二重不変防衛フレームワークを提案する。
データバランスフェーズでは、トレーニングデータの公平性と多様性を促進する拡散モデルに基づくデータサンプリング戦略を用いてモデルバイアスを緩和する。
両敵の自己メタ防衛段階において,分類器の欠如による堅牢性低下を克服するため,極端にネガティブな拡張軟化を取り入れた新しい距離対逆訓練手法を導入する。
さらに,敵に強化された自己メタ機構を導入し,未知のアイデンティティと未知の攻撃タイプの両方の二重一般化を実現する。
実験により,本手法は既存の防備を著しく上回っていることが示された。
関連論文リスト
- DUMB and DUMBer: Is Adversarial Training Worth It in the Real World? [15.469010487781931]
敵の例は小さく、しばしば、愚かな機械学習モデルのために作られた、知覚不能な摂動である。
侵入攻撃(英語: Evasion attack)とは、入力がテスト時に誤分類を引き起こすように修正される敵攻撃の一種であり、その伝達性のために特に不快である。
本稿では,DUMB法の基礎の上に構築された攻撃フレームワークであるDUMBerを紹介し,敵の訓練したモデルの弾力性を評価する。
論文 参考訳(メタデータ) (2025-06-23T11:16:21Z) - Two Heads Are Better than One: Model-Weight and Latent-Space Analysis for Federated Learning on Non-iid Data against Poisoning Attacks [12.325216357472137]
Federated Learning(FL)は、リモートクライアントが生データを共有せずにグローバルモデルを共同でトレーニングできる一般的なパラダイムである。
FLは、その分散した性質のため、モデル中毒攻撃に対して脆弱であることが示されている。
我々は,GeminiGuardを軽量で汎用的で教師なしで,そのような防御を配備する実践的な要件に適合するように提案する。
論文 参考訳(メタデータ) (2025-03-30T02:56:05Z) - Sustainable Self-evolution Adversarial Training [41.35034408227795]
本稿では,持続可能な自己進化学習(SSEAT)フレームワークを提案する。
本研究は,様々な種類の対角的事例から学習を実現するために,連続的な対向防衛パイプラインを導入する。
また,より多様で重要な再学習データを選択するために,逆データ再生モジュールを提案する。
論文 参考訳(メタデータ) (2024-12-03T08:41:11Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。