論文の概要: Open-Attribute Recognition for Person Retrieval: Finding People Through Distinctive and Novel Attributes
- arxiv url: http://arxiv.org/abs/2508.01389v2
- Date: Tue, 05 Aug 2025 14:18:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 13:15:14.123788
- Title: Open-Attribute Recognition for Person Retrieval: Finding People Through Distinctive and Novel Attributes
- Title(参考訳): 個人検索のためのオープン属性認識:識別的および新規属性による人物の検索
- Authors: Minjeong Park, Hongbeen Park, Sangwon Lee, Yoonha Jang, Jinkyu Kim,
- Abstract要約: The Open-Attribute Recognition for Person Retrieval (OAPR) task aimed to retrieve individuals based on attribute cues, whether that attribute were seen in training。
本稿では,幅広い属性カテゴリをカバーする一般化可能なボディ部分表現の学習を目的とした,新しいフレームワークを提案する。
オープン属性認識のための4つの広く使われているデータセットを再構成する。
- 参考スコア(独自算出の注目度): 9.929323990441576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pedestrian Attribute Recognition (PAR) plays a crucial role in various vision tasks such as person retrieval and identification. Most existing attribute-based retrieval methods operate under the closed-set assumption that all attribute classes are consistently available during both training and inference. However, this assumption limits their applicability in real-world scenarios where novel attributes may emerge. Moreover, predefined attributes in benchmark datasets are often generic and shared across individuals, making them less discriminative for retrieving the target person. To address these challenges, we propose the Open-Attribute Recognition for Person Retrieval (OAPR) task, which aims to retrieve individuals based on attribute cues, regardless of whether those attributes were seen during training. To support this task, we introduce a novel framework designed to learn generalizable body part representations that cover a broad range of attribute categories. Furthermore, we reconstruct four widely used datasets for open-attribute recognition. Comprehensive experiments on these datasets demonstrate the necessity of the OAPR task and the effectiveness of our framework. The source code and pre-trained models will be publicly available upon publication.
- Abstract(参考訳): Pedestrian Attribute Recognition (PAR) は、人物の検索や識別などの様々な視覚タスクにおいて重要な役割を担っている。
既存の属性ベースの検索手法の多くは、すべての属性クラスがトレーニングと推論の両方で一貫して利用できるというクローズドセットの仮定の下で動作している。
しかし、この仮定は、新しい属性が現れるかもしれない現実のシナリオにおける適用性を制限する。
さらに、ベンチマークデータセットの事前定義された属性は、多くの場合、個人間でジェネリックで共有され、ターゲットの人物を検索する際の差別性が低下する。
これらの課題に対処するため, 個人検索のためのオープン属性認識(OAPR: Open-Attribute Recognition for Person Retrieval)タスクを提案する。
この課題を支援するために,幅広い属性カテゴリをカバーする一般化可能なボディ部分表現の学習を目的とした,新しいフレームワークを提案する。
さらに、オープン属性認識のための4つの広く使われているデータセットを再構成する。
これらのデータセットに関する総合的な実験は、OAPRタスクの必要性とフレームワークの有効性を示している。
ソースコードと事前訓練されたモデルは、公開時に公開される。
関連論文リスト
- LATex: Leveraging Attribute-based Text Knowledge for Aerial-Ground Person Re-Identification [63.07563443280147]
本稿では,AG-ReID のための新しいフレームワーク LATex を提案する。
属性ベースのテキスト知識を活用するために、プロンプトチューニング戦略を採用する。
我々のフレームワークは、AG-ReIDを改善するために属性ベースのテキスト知識を完全に活用できる。
論文 参考訳(メタデータ) (2025-03-31T04:47:05Z) - A Quantitative Evaluation of the Expressivity of BMI, Pose and Gender in Body Embeddings for Recognition and Identification [56.10719736365069]
我々は,学習した特徴と特定の属性の相互情報として定義された表現性の概念を拡張し,属性のエンコード方法の定量化を行う。
その結果,BMIは最終層において高い表現性を示し,認識におけるその支配的な役割を示していることがわかった。
これらの結果は,ReIDにおける身体属性の中心的役割を示し,属性駆動相関を明らかにするための原則的アプローチを確立した。
論文 参考訳(メタデータ) (2025-03-09T05:15:54Z) - Learning Decomposable and Debiased Representations via Attribute-Centric Information Bottlenecks [21.813755593742858]
データセット内のターゲットラベルと突発的に相関するバイアス属性は、分類の不適切なショートカットを学習するニューラルネットワークに問題を引き起こす可能性がある。
本稿では,属性の合成表現を学習するための注目に基づく情報ボトルネックを導入し,新たなデバイアス化フレームワークであるデバイアスンググローバルワークスペースを提案する。
偏りのあるデータセットに対する包括的評価と定量的および定性的な分析を行い、アプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-21T05:33:49Z) - A Solution to Co-occurrence Bias: Attributes Disentanglement via Mutual
Information Minimization for Pedestrian Attribute Recognition [10.821982414387525]
そこで本研究では,現在の手法が,データセット分布のシーンやアイデンティティに適合する属性の相互依存性の一般化に実際に苦慮していることを示す。
現実的な場面で頑健なモデルをレンダリングするために,属性不整形特徴学習を提案し,属性の認識が他者の存在に依存しないことを保証する。
論文 参考訳(メタデータ) (2023-07-28T01:34:55Z) - OvarNet: Towards Open-vocabulary Object Attribute Recognition [42.90477523238336]
CLIP-Attrと呼ばれるオープンボキャブラリオブジェクトの検出と属性分類に有効な2段階のアプローチを提案する。
候補オブジェクトは最初、オフラインのRPNで提案され、後にセマンティックなカテゴリと属性に分類される。
視覚的シーン理解において,意味カテゴリーと属性の認識が相補的であることを示す。
論文 参考訳(メタデータ) (2023-01-23T15:59:29Z) - UPAR: Unified Pedestrian Attribute Recognition and Person Retrieval [4.6193503399184275]
UPAR, Unified Person Attribute Recognition データセットについて述べる。
PA100k、PETA、RAPv2、Market1501の4つの有名な人物属性認識データセットに基づいている。
私たちは、12の属性カテゴリに対して、40の重要なバイナリ属性を調和させるために、3,3Mの追加アノテーションを提供することで、これらのデータセットを統一します。
論文 参考訳(メタデータ) (2022-09-06T14:20:56Z) - OA-Mine: Open-World Attribute Mining for E-Commerce Products with Weak
Supervision [93.26737878221073]
オープンワールド環境における属性マイニングの問題点を考察し,新しい属性とその値の抽出を行う。
本稿では、まず属性値候補を生成し、次にそれらを属性のクラスタにグループ化する、原則化されたフレームワークを提案する。
我々のモデルは強いベースラインをはるかに上回り、目に見えない属性や製品タイプに一般化することができる。
論文 参考訳(メタデータ) (2022-04-29T04:16:04Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - Make an Omelette with Breaking Eggs: Zero-Shot Learning for Novel
Attribute Synthesis [65.74825840440504]
我々は,ZSLA(Zero Shot Learning for Attributes)を提案する。
提案手法は,新しい属性の検出器をゼロショット学習方式で合成することができる。
提案手法は,Caltech-UCSD Birds-200-2011データセット上の32個の属性のみを用いて,他の207個の新しい属性を合成することができる。
論文 参考訳(メタデータ) (2021-11-28T15:45:54Z) - Learning Compositional Representation for Few-shot Visual Question
Answering [93.4061107793983]
現在の視覚的質問応答の方法は、トレーニングデータ量で回答を良好に実行するが、例が少ない新規回答では精度が限られている。
回答から属性を十分なデータで抽出することを提案するが、これは後に数ショットの学習を制限するために構成される。
VQA v2.0検証データセットの実験結果から,提案した属性ネットワークの有効性が示された。
論文 参考訳(メタデータ) (2021-02-21T10:16:24Z) - An Empirical Study of Person Re-Identification with Attributes [15.473033192858543]
本稿では, 属性に基づく手法を提案し, 興味のある人物を視覚的属性の集合として記述する。
複数のアルゴリズムを比較し、属性の品質がパフォーマンスに与える影響を分析する。
キーとなる結論は、専門家が注釈付けした属性ではなく、専門家でない属性によって達成されるパフォーマンスは、個人を再識別するための属性ベースのアプローチのステータスクォーのより忠実な指標である、ということだ。
論文 参考訳(メタデータ) (2020-01-25T22:18:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。