論文の概要: A Quantitative Evaluation of the Expressivity of BMI, Pose and Gender in Body Embeddings for Recognition and Identification
- arxiv url: http://arxiv.org/abs/2503.06451v1
- Date: Sun, 09 Mar 2025 05:15:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:48:58.305236
- Title: A Quantitative Evaluation of the Expressivity of BMI, Pose and Gender in Body Embeddings for Recognition and Identification
- Title(参考訳): 身体内埋め込みにおけるBMI, Pose, Genderの表現率の定量的評価
- Authors: Basudha Pal, Siyuan, Huang, Rama Chellappa,
- Abstract要約: 人物再識別(ReID)システムは、画像またはビデオフレーム間で個人を識別する。
多くのReID法は、性別、ポーズ、身体質量指数(BMI)などのセンシティブな属性の影響を受けている。
表現性の概念をボディ認識領域に拡張し、ReIDモデルがどのようにこれらの属性をエンコードするかをよりよく理解します。
- 参考スコア(独自算出の注目度): 68.06251161453417
- License:
- Abstract: Person Re-identification (ReID) systems identify individuals across images or video frames and play a critical role in various real-world applications. However, many ReID methods are influenced by sensitive attributes such as gender, pose, and body mass index (BMI), which vary in uncontrolled environments, leading to biases and reduced generalization. To address this, we extend the concept of expressivity to the body recognition domain to better understand how ReID models encode these attributes. Expressivity, defined as the mutual information between feature vector representations and specific attributes, is computed using a secondary neural network that takes feature and attribute vectors as inputs. This provides a quantitative framework for analyzing the extent to which sensitive attributes are embedded in the model's representations. We apply expressivity analysis to SemReID, a state-of-the-art self-supervised ReID model, and find that BMI consistently exhibits the highest expressivity scores in the model's final layers, underscoring its dominant role in feature encoding. In the final attention layer of the trained network, the expressivity order for body attributes is BMI > Pitch > Yaw > Gender, highlighting their relative importance in learned representations. Additionally, expressivity values evolve progressively across network layers and training epochs, reflecting a dynamic encoding of attributes during feature extraction. These insights emphasize the influence of body-related attributes on ReID models and provide a systematic methodology for identifying and mitigating attribute-driven biases. By leveraging expressivity analysis, we offer valuable tools to enhance the fairness, robustness, and generalization of ReID systems in diverse real-world settings.
- Abstract(参考訳): 人物再識別(ReID)システムは、画像やビデオフレームにまたがる個人を特定し、様々な現実世界のアプリケーションにおいて重要な役割を果たす。
しかし、多くのReID手法は、性別、ポーズ、身体質量指数(BMI)などのセンシティブな属性の影響を受けており、制御されていない環境において異なるため、バイアスや一般化の減少につながる。
これを解決するために、表現性の概念をボディ認識領域に拡張し、ReIDモデルがどのようにこれらの属性をエンコードするかをよりよく理解する。
特徴ベクトル表現と特定の属性の相互情報として定義される表現性は、特徴ベクトルと属性ベクトルを入力とする二次ニューラルネットワークを用いて計算される。
これは、モデル表現にセンシティブな属性が埋め込まれている範囲を分析するための定量的なフレームワークを提供する。
我々は、最先端の自己教師型ReIDモデルであるSemReIDに表現率解析を適用し、BMIがモデルの最終層で常に最高の表現率スコアを示し、特徴符号化におけるその支配的な役割を裏付ける。
トレーニングネットワークの最終注目層では,BMI > Pitch > Yaw > Gender が,学習表現における相対的重要性を強調し,身体属性の表現性順序をBMI > Pitch > Yaw > Gender とした。
さらに、表現力の値はネットワーク層を横断して進化し、特徴抽出中に属性の動的エンコーディングを反映してエポックを訓練する。
これらの知見は、身体関連属性がReIDモデルに与える影響を強調し、属性駆動バイアスを特定し緩和するための体系的な方法論を提供する。
表現性分析を活用することで、さまざまな現実世界環境におけるReIDシステムの公平性、堅牢性、一般化を高める貴重なツールを提供する。
関連論文リスト
- Adaptive Prototype Model for Attribute-based Multi-label Few-shot Action Recognition [11.316708754749103]
現実世界の行動認識システムでは、より多くの属性を組み込むことで、人間の行動をより包括的に理解できるようになる。
本稿では,人間行動認識のためのアダプティブ属性プロトタイプモデル(AAPM)を提案する。
AAPMは属性に基づく複数ラベルの複数ショットのアクション認識と単一ラベルの少数ショットのアクション認識の両方において、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-02-18T06:39:28Z) - Hybrid Discriminative Attribute-Object Embedding Network for Compositional Zero-Shot Learning [83.10178754323955]
HDA-OE(Hybrid Discriminative Attribute-Object Embedding)ネットワークは,属性とオブジェクトの視覚表現との複雑な相互作用を解決するために提案される。
トレーニングデータの多様性を高めるため、HDA-OEは属性駆動型データ合成(ADDS)モジュールを導入した。
HDA-OEは、モデルの識別能力をさらに向上するため、サブクラス駆動の差別的埋め込み(SDDE)モジュールを導入している。
提案モデルを3つのベンチマークデータセットで評価し,その妥当性と信頼性を検証した。
論文 参考訳(メタデータ) (2024-11-28T09:50:25Z) - ArtVLM: Attribute Recognition Through Vision-Based Prefix Language Modeling [32.55352435358949]
属性認識のための文生成に基づく検索定式化を提案する。
画像上で認識される各属性に対して、短い文を生成する視覚条件付き確率を測定する。
生成的検索が2つの視覚的推論データセットのコントラスト的検索を一貫して上回ることを示す実験を通して実証する。
論文 参考訳(メタデータ) (2024-08-07T21:44:29Z) - Leveraging vision-language models for fair facial attribute classification [19.93324644519412]
汎用視覚言語モデル(英: General-purpose Vision-Language Model, VLM)は、共通感性属性のための豊富な知識源である。
我々は,VLM予測値と人間定義属性分布の対応関係を解析した。
複数のベンチマークの顔属性分類データセットの実験は、既存の教師なしベースラインよりもモデルの公平性の向上を示している。
論文 参考訳(メタデータ) (2024-03-15T18:37:15Z) - Hierarchical Visual Primitive Experts for Compositional Zero-Shot
Learning [52.506434446439776]
合成ゼロショット学習(CZSL)は、既知のプリミティブ(属性とオブジェクト)の事前知識で構成を認識することを目的としている。
このような問題に対処するために,コンポジショントランスフォーマー(CoT)と呼ばれるシンプルでスケーラブルなフレームワークを提案する。
提案手法は,MIT-States,C-GQA,VAW-CZSLなど,いくつかのベンチマークでSoTA性能を実現する。
論文 参考訳(メタデータ) (2023-08-08T03:24:21Z) - TransFA: Transformer-based Representation for Face Attribute Evaluation [87.09529826340304]
我々はtextbfTransFA を用いたtextbfattribute 評価のための新しい textbf Transformer 表現を提案する。
提案するTransFAは,最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-12T10:58:06Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - A-FMI: Learning Attributions from Deep Networks via Feature Map
Importance [58.708607977437794]
勾配に基づくアトリビューション法は畳み込みニューラルネットワーク(CNN)の理解を助けることができる
帰属特徴の冗長性と勾配飽和問題は、帰属方法がまだ直面する課題である。
本稿では,各特徴マップの寄与度を高めるための新しい概念,特徴マップ重要度 (FMI) と,勾配飽和問題に対処するためのFMIによる新しい帰属法を提案する。
論文 参考訳(メタデータ) (2021-04-12T14:54:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。