論文の概要: Feature Representation in Deep Metric Embeddings
- arxiv url: http://arxiv.org/abs/2102.03176v2
- Date: Fri, 31 Mar 2023 14:27:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 18:39:09.807050
- Title: Feature Representation in Deep Metric Embeddings
- Title(参考訳): ディープメトリック埋め込みにおける特徴表現
- Authors: Ryan Furlong, Vincent O'Brien, James Garland, Daniel Palacios-Alonso,
Francisco Dominguez-Mateos
- Abstract要約: 本研究は、顔(アイデンティティ)を識別するために訓練された埋め込みと、教師なしクラスタリングを用いて、顔の識別に関わる特徴を識別する。
クラス内のシナリオでは、推論プロセスは単一のアイデンティティの共通属性を区別し、それぞれ90.0%と76.0%の精度でひげとメガネを識別する。
このシステムは、特に99.3%、99.3%、94.1%の性別、肌の色、年齢で、高い精度で追加のサブ識別を行うことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In deep metric learning (DML), high-level input data are represented in a
lower-level representation (embedding) space, such that samples from the same
class are mapped close together, while samples from disparate classes are
mapped further apart. In this lower-level representation, only a single
inference sample from each known class is required to discriminate between
classes accurately. The features a DML model uses to discriminate between
classes and the importance of each feature in the training process are unknown.
To investigate this, this study takes embeddings trained to discriminate faces
(identities) and uses unsupervised clustering to identify the features involved
in facial identity discrimination by examining their representation within the
embedded space. This study is split into two cases; intra class
sub-discrimination, where attributes that differ between a single identity are
considered; such as beards and emotions; and extra class sub-discrimination,
where attributes which differ between different identities/people, are
considered; such as gender, skin tone and age. In the intra class scenario, the
inference process distinguishes common attributes between single identities,
achieving 90.0\% and 76.0\% accuracy for beards and glasses, respectively. The
system can also perform extra class sub-discrimination with a high accuracy
rate, notably 99.3\%, 99.3\% and 94.1\% for gender, skin tone, and age,
respectively.
- Abstract(参考訳): 深層メトリック学習(dml)では、ハイレベルな入力データは低レベルの表現(埋め込み)空間で表現され、同じクラスからのサンプルが密にマッピングされ、異なるクラスからのサンプルがさらに別々にマッピングされる。
この下層表現では、各既知のクラスからの1つの推論サンプルのみが、クラス間の正確な識別を要求する。
DMLモデルがクラスを識別するために使用する特徴と、トレーニングプロセスにおける各機能の重要性は、不明である。
そこで本研究では,顔(アイデンティティ)を識別する訓練を施した埋め込みを用いて,非教師なしクラスタリングを用いて顔の識別に関わる特徴を識別し,その表現を組込み空間内で調べる。
本研究は,1つのアイデンティティに異なる属性が考慮されるクラス内下位差別(ひげや感情など)と,性別,肌色,年齢などの異なる属性が考慮されるクラス内下位差別(クラス内差別)の2つのケースに分類される。
クラス内のシナリオでは、推論プロセスは単一のアイデンティティの共通属性を区別し、それぞれ90.0\%と76.0\%の精度を達成する。
また、性別、肌の色、年齢に対して、99.3\%、99.3\%、94.1\%などの高い精度で、余分なクラス分類を行うこともできる。
関連論文リスト
- LabellessFace: Fair Metric Learning for Face Recognition without Attribute Labels [0.11999555634662631]
本稿では,グループラベリングを必要とせず,顔認識における階層バイアスを改善するフレームワークであるLabellessFace'を紹介する。
本稿では,特定のクラスに対する好意度を評価するための,クラス好意度と呼ばれる新しいフェアネス向上尺度を提案する。
本手法は,クラス嗜好レベルに基づいて学習パラメータを動的に調整し,属性間の公平性を促進させる。
論文 参考訳(メタデータ) (2024-09-14T02:56:07Z) - FineFACE: Fair Facial Attribute Classification Leveraging Fine-grained Features [3.9440964696313485]
自動的な顔属性分類アルゴリズムでは、人口統計バイアスの存在が強調されている。
既存のバイアス緩和技術は、一般に人口統計学的なアノテーションを必要とし、しばしば公正性と正確性の間のトレードオフを得る。
そこで本稿では, 顔属性の公平な分類法を, きめ細かな分類問題とみなして提案する。
論文 参考訳(メタデータ) (2024-08-29T20:08:22Z) - High-Discriminative Attribute Feature Learning for Generalized Zero-Shot Learning [54.86882315023791]
一般化ゼロショット学習(HDAFL)のための高識別属性特徴学習(High-Discriminative Attribute Feature Learning)という革新的な手法を提案する。
HDAFLは複数の畳み込みカーネルを使用して、画像の属性と高い相関性を持つ識別領域を自動的に学習する。
また、属性間の識別能力を高めるために、Transformerベースの属性識別エンコーダを導入する。
論文 参考訳(メタデータ) (2024-04-07T13:17:47Z) - Leveraging vision-language models for fair facial attribute classification [19.93324644519412]
汎用視覚言語モデル(英: General-purpose Vision-Language Model, VLM)は、共通感性属性のための豊富な知識源である。
我々は,VLM予測値と人間定義属性分布の対応関係を解析した。
複数のベンチマークの顔属性分類データセットの実験は、既存の教師なしベースラインよりもモデルの公平性の向上を示している。
論文 参考訳(メタデータ) (2024-03-15T18:37:15Z) - TransFA: Transformer-based Representation for Face Attribute Evaluation [87.09529826340304]
我々はtextbfTransFA を用いたtextbfattribute 評価のための新しい textbf Transformer 表現を提案する。
提案するTransFAは,最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-12T10:58:06Z) - Towards Intrinsic Common Discriminative Features Learning for Face
Forgery Detection using Adversarial Learning [59.548960057358435]
本稿では, 対人学習を利用して, 異なる偽造法と顔の同一性による負の効果を除去する手法を提案する。
我々の顔偽造検出モデルは、偽造法や顔の同一性の影響を排除し、共通の識別的特徴を抽出することを学ぶ。
論文 参考訳(メタデータ) (2022-07-08T09:23:59Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Representative-Discriminative Learning for Open-set Land Cover
Classification of Satellite Imagery [11.47389428456188]
テスト中に未知のクラスに属するサンプルを識別するオープンセット土地被覆分類の問題について検討する。
本質的には分類問題であるが、データの代表的側面と差別的側面の両方を活用する必要がある。
本稿では,代表識別型オープンセット認識フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-21T15:28:56Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。