論文の概要: Metric Embedding Sub-discrimination Study
- arxiv url: http://arxiv.org/abs/2102.03176v1
- Date: Fri, 5 Feb 2021 13:53:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 19:26:05.105813
- Title: Metric Embedding Sub-discrimination Study
- Title(参考訳): Metric Embedding Sub-discrimination Study
- Authors: Ryan Furlong, Vincent O'Brien, James Garland, Francisco
Dominguez-Mateos
- Abstract要約: 本研究は, 埋込空間に含まれる特徴情報が, 特徴空間におけるサブ識別にどの程度用いられるかを調べることに焦点を当てる。
本研究は, 識別埋め込みにおいて, サブ識別問題の解決に必要な有能な属性に関する情報を, 埋め込み内に保存することを示した。
このシステムは、特に99.3%、99.3%、94.1%の性別、肌の色、年齢で、高い精度で追加のサブ識別を行うことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep metric learning is a technique used in a variety of discriminative tasks
to achieve zero-shot, one-shot or few-shot learning. When applied, the system
learns an embedding space where a non-parametric approach, such as \gls{knn},
can be used to discriminate features during test time. This work focuses on
investigating to what extent feature information contained within this
embedding space can be used to carry out sub-discrimination in the feature
space. The study shows that within a discrimination embedding, the information
on the salient attributes needed to solve the problem of sub-discrimination is
saved within the embedding and that this inherent information can be used to
carry out sub-discriminative tasks. To demonstrate this, an embedding designed
initially to discriminate faces is used to differentiate several attributes
such as gender, age and skin tone, without any additional training. The study
is split into two study cases: intra class discrimination where all the
embeddings took into consideration are from the same identity; and extra class
discrimination where the embeddings represent different identities. After the
study, it is shown that it is possible to infer common attributes to different
identities. The system can also perform extra class sub-discrimination with a
high accuracy rate, notably 99.3\%, 99.3\% and 94.1\% for gender, skin tone,
and age, respectively. Intra class tests show more mixed results with more
nuanced attributes like emotions not being reliably classified, while more
distinct attributes such as thick-framed glasses and beards, achieving 97.2\%
and 95.8\% accuracy, respectively.
- Abstract(参考訳): 深度メトリック学習は、ゼロショット、ワンショット、または数ショット学習を達成するために、さまざまな識別タスクで使用されるテクニックです。
適用されると、システムは埋め込み空間を学習し、例えば \gls{knn} のような非パラメトリックアプローチを使ってテスト時間中に特徴を判別することができる。
本研究では, この埋め込み空間に含まれる特徴情報が, 特徴空間におけるサブ差別にどの程度利用できるかを検討する。
本研究は, 識別埋め込みにおいて, 下位識別の問題を解決するために必要な有意属性に関する情報を埋め込みの中に保存し, この固有情報が下位識別タスクの実行に利用できることを示す。
これを証明するために、まず顔を識別するために設計された埋め込みは、追加のトレーニングなしで、性別、年齢、肌の色などのいくつかの属性を区別するために使用される。
この研究は、2つの研究ケースに分けられます:すべての埋め込みが同じアイデンティティから考慮されたクラス内識別と、埋め込みが異なるアイデンティティを表すクラス外識別です。
研究の後、異なるアイデンティティに共通の属性を推論することは可能であることが示されています。
このシステムは、性別、肌のトーン、年齢について、特に99.3\%、99.3\%、94.1\%の高精度なクラスサブ差別を行うこともできる。
クラス内テストでは、感情が確実に分類されないようなよりニュアンスのある特性と、厚いフレームのメガネやひげなどのより明確な特性が混ざり合い、それぞれ97.2\%と95.8\%の精度を達成している。
関連論文リスト
- Multi-dimensional discrimination in Law and Machine Learning -- A
comparative overview [14.650860450187793]
公正を意識した機械学習の領域は、AI/MLモデルにおけるバイアスの理解、緩和、説明のための方法とアルゴリズムに焦点を当てている。
実際には、人間のアイデンティティは多次元であり、複数の保護された特徴に基づいて識別を行うことができる。
この方向の最近のアプローチは、主に法域からのいわゆる交叉フェアネスの定義に従う。
論文 参考訳(メタデータ) (2023-02-12T20:41:58Z) - TransFA: Transformer-based Representation for Face Attribute Evaluation [87.09529826340304]
我々はtextbfTransFA を用いたtextbfattribute 評価のための新しい textbf Transformer 表現を提案する。
提案するTransFAは,最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-12T10:58:06Z) - Towards Intrinsic Common Discriminative Features Learning for Face
Forgery Detection using Adversarial Learning [59.548960057358435]
本稿では, 対人学習を利用して, 異なる偽造法と顔の同一性による負の効果を除去する手法を提案する。
我々の顔偽造検出モデルは、偽造法や顔の同一性の影響を排除し、共通の識別的特徴を抽出することを学ぶ。
論文 参考訳(メタデータ) (2022-07-08T09:23:59Z) - Automatic Fairness Testing of Neural Classifiers through Adversarial
Sampling [8.2868128804393]
本稿では,識別サンプルを体系的に検索するスケーラブルで効果的な手法を提案する。
最先端の手法と比較して、我々の手法は勾配計算やクラスタリングのような軽量な手法のみを用いる。
再訓練されたモデルは、それぞれ平均57.2%と60.2%の差別を減少させる。
論文 参考訳(メタデータ) (2021-07-17T03:47:08Z) - Neighborhood Contrastive Learning for Novel Class Discovery [79.14767688903028]
我々は,クラスタリング性能に重要な識別表現を学習するために,Neighborhood Contrastive Learningという新しいフレームワークを構築した。
これらの2つの成分がクラスタリング性能に大きく寄与し、我々のモデルが最先端の手法よりも大きなマージンで優れていることを実験的に実証した。
論文 参考訳(メタデータ) (2021-06-20T17:34:55Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Representative-Discriminative Learning for Open-set Land Cover
Classification of Satellite Imagery [11.47389428456188]
テスト中に未知のクラスに属するサンプルを識別するオープンセット土地被覆分類の問題について検討する。
本質的には分類問題であるが、データの代表的側面と差別的側面の両方を活用する必要がある。
本稿では,代表識別型オープンセット認識フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-21T15:28:56Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z) - SensitiveLoss: Improving Accuracy and Fairness of Face Representations
with Discrimination-Aware Deep Learning [17.088716485755917]
偏見認識アルゴリズムの精度と公平性を改善するための識別認識学習法を提案する。
実験により、最もよく使われている顔データベースに基づく学習プロセスが、アルゴリズムによる識別の強い、一般的な訓練済みの深層顔モデルに繋がったことを示す。
提案手法は,事前学習ネットワークへのアドオンとして機能し,平均精度と公平性の観点から性能向上に有効である。
論文 参考訳(メタデータ) (2020-04-22T10:32:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。