論文の概要: Beyond Augmentation: Empowering Model Robustness under Extreme Capture Environments
- arxiv url: http://arxiv.org/abs/2407.13640v1
- Date: Thu, 18 Jul 2024 16:18:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-19 14:41:26.064196
- Title: Beyond Augmentation: Empowering Model Robustness under Extreme Capture Environments
- Title(参考訳): 拡張を超えて - 極端捕獲環境下でのモデルロバストネスの強化
- Authors: Yunpeng Gong, Yongjie Hou, Chuangliang Zhang, Min Jiang,
- Abstract要約: コンピュータビジョンにおける人物の再識別は、異なるカメラにまたがる個人を認識し追跡することを目的としている。
様々な照明、カメラスタイル、角度、画像歪みを含む極端な条件は、データの分布と再ID精度に大きな影響を及ぼす可能性がある。
極端条件下でのモデルのロバスト性を改善するために,マルチモード同期学習(MMSL)戦略を提案する。
- 参考スコア(独自算出の注目度): 3.2968751634725435
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Person Re-identification (re-ID) in computer vision aims to recognize and track individuals across different cameras. While previous research has mainly focused on challenges like pose variations and lighting changes, the impact of extreme capture conditions is often not adequately addressed. These extreme conditions, including varied lighting, camera styles, angles, and image distortions, can significantly affect data distribution and re-ID accuracy. Current research typically improves model generalization under normal shooting conditions through data augmentation techniques such as adjusting brightness and contrast. However, these methods pay less attention to the robustness of models under extreme shooting conditions. To tackle this, we propose a multi-mode synchronization learning (MMSL) strategy . This approach involves dividing images into grids, randomly selecting grid blocks, and applying data augmentation methods like contrast and brightness adjustments. This process introduces diverse transformations without altering the original image structure, helping the model adapt to extreme variations. This method improves the model's generalization under extreme conditions and enables learning diverse features, thus better addressing the challenges in re-ID. Extensive experiments on a simulated test set under extreme conditions have demonstrated the effectiveness of our method. This approach is crucial for enhancing model robustness and adaptability in real-world scenarios, supporting the future development of person re-identification technology.
- Abstract(参考訳): コンピュータビジョンにおける人物再識別(re-ID)は、異なるカメラで個人を認識し追跡することを目的としている。
これまでの研究は主に、ポーズのバリエーションや照明の変化といった課題に焦点を当ててきたが、極端な捕獲条件の影響はしばしば適切に対処されていない。
様々な照明、カメラスタイル、角度、画像歪みなどの極端な条件は、データの分布と再ID精度に大きな影響を与える可能性がある。
現在の研究は、通常射撃条件下でのモデル一般化を、明るさやコントラストの調整などのデータ拡張技術によって改善している。
しかし、これらの手法は極端な射撃条件下でのモデルの堅牢性にはあまり注意を払わない。
そこで本研究では,マルチモード同期学習(MMSL)戦略を提案する。
このアプローチでは、画像をグリッドに分割し、グリッドブロックをランダムに選択し、コントラストや明るさ調整のようなデータ拡張手法を適用する。
このプロセスは、オリジナルの画像構造を変更することなく多様な変換を導入し、モデルが極端な変化に適応するのに役立つ。
この手法は、極端な条件下でのモデルの一般化を改善し、多様な特徴の学習を可能にし、re-IDの課題に対処する。
極端条件下でのシミュレーション実験により,本手法の有効性を実証した。
このアプローチは、実世界のシナリオにおけるモデル堅牢性と適応性の向上に不可欠であり、個人再識別技術の今後の発展をサポートする。
関連論文リスト
- Stable Flow: Vital Layers for Training-Free Image Editing [74.52248787189302]
拡散モデルはコンテンツ合成と編集の分野に革命をもたらした。
最近のモデルでは、従来のUNetアーキテクチャをDiffusion Transformer (DiT)に置き換えている。
画像形成に欠かせないDiT内の「硝子層」を自動同定する手法を提案する。
次に、実画像編集を可能にするために、フローモデルのための改良された画像反転手法を提案する。
論文 参考訳(メタデータ) (2024-11-21T18:59:51Z) - A Simple Approach to Unifying Diffusion-based Conditional Generation [63.389616350290595]
多様な条件生成タスクを処理するための、シンプルで統一されたフレームワークを導入します。
提案手法は,異なる推論時間サンプリング方式による多目的化を実現する。
我々のモデルは、非親密なアライメントや粗い条件付けのような追加機能をサポートしています。
論文 参考訳(メタデータ) (2024-10-15T09:41:43Z) - Data Augmentation via Latent Diffusion for Saliency Prediction [67.88936624546076]
残差予測モデルはラベル付きデータの限られた多様性と量によって制約される。
本研究では,実世界のシーンの複雑さと変動性を保ちながら,自然画像の編集を行うディープ・サリエンシ・予測のための新しいデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2024-09-11T14:36:24Z) - TCIG: Two-Stage Controlled Image Generation with Quality Enhancement
through Diffusion [0.0]
画像生成における制御性と高品質を両立させる2段階の手法を提案する。
制御性と高品質を分離することにより,優れた結果が得られる。
論文 参考訳(メタデータ) (2024-03-02T13:59:02Z) - Exploring Color Invariance through Image-Level Ensemble Learning [7.254270666779331]
本研究ではランダムカラー消去という学習戦略を紹介する。
元の画像構造を乱すことなく、トレーニングデータの部分的又は完全な色情報を選択的に消去する。
このアプローチは、過剰適合のリスクを軽減し、色の変化を処理するモデルの能力を強化する。
論文 参考訳(メタデータ) (2024-01-19T06:04:48Z) - Cross-Modality Perturbation Synergy Attack for Person Re-identification [66.48494594909123]
相互モダリティReIDの主な課題は、異なるモダリティ間の視覚的差異を効果的に扱うことである。
既存の攻撃方法は、目に見える画像のモダリティの特徴に主に焦点を当てている。
本研究では,クロスモーダルReIDに特化して設計されたユニバーサル摂動攻撃を提案する。
論文 参考訳(メタデータ) (2024-01-18T15:56:23Z) - Exposure Bracketing is All You Need for Unifying Image Restoration and Enhancement Tasks [50.822601495422916]
本稿では,露光ブラケット写真を利用して画像復元と拡張作業を統合することを提案する。
実世界のペアの収集が困難であるため,まず合成ペアデータを用いてモデルを事前学習する手法を提案する。
特に,時間変調リカレントネットワーク(TMRNet)と自己教師あり適応手法を提案する。
論文 参考訳(メタデータ) (2024-01-01T14:14:35Z) - DoubleAUG: Single-domain Generalized Object Detector in Urban via Color
Perturbation and Dual-style Memory [44.00605673111185]
都市シナリオにおける物体検出は、インテリジェント交通システムにおける自律走行に不可欠である。
晴れた日に撮影された画像は、雨の日に撮影された画像と大きく異なる。
本稿では,画像および特徴レベルの拡張スキームを含む新しいDouble AUGmentation(DoubleAUG)手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T07:05:54Z) - Dimma: Semi-supervised Low Light Image Enhancement with Adaptive Dimming [0.728258471592763]
自然色を維持しながら低照度画像を強調することは、カメラ処理のバリエーションによって難しい問題である。
そこで我々はDimmaを提案する。Dimmaは、画像対の小さなセットを利用して、任意のカメラと整合する半教師付きアプローチである。
そこで我々は,照明の違いに基づいて,シーンの歪み色を生成する畳み込み混合密度ネットワークを導入することで実現した。
論文 参考訳(メタデータ) (2023-10-14T17:59:46Z) - Conditional Generation from Unconditional Diffusion Models using
Denoiser Representations [94.04631421741986]
本稿では,学習したデノイザネットワークの内部表現を用いて,事前学習した非条件拡散モデルを新しい条件に適用することを提案する。
提案手法により生成した合成画像を用いたTiny ImageNetトレーニングセットの強化により,ResNetベースラインの分類精度が最大8%向上することを示す。
論文 参考訳(メタデータ) (2023-06-02T20:09:57Z) - DaliID: Distortion-Adaptive Learned Invariance for Identification Models [9.502663556403622]
本稿では,同定のための歪み適応型学習不変性(DaliID)モデルを提案する。
DaliIDモデルは、7つのベンチマークデータセット上で、顔認識と人物の再識別の両方のために、最先端(SOTA)を実現する。
論文 参考訳(メタデータ) (2023-02-11T18:19:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。