論文の概要: Obstructing Classification via Projection
- arxiv url: http://arxiv.org/abs/2105.09047v1
- Date: Wed, 19 May 2021 10:28:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 18:29:12.619325
- Title: Obstructing Classification via Projection
- Title(参考訳): 投影による障害物分類
- Authors: Pantea Haghighatkhah, Wouter Meulemans, Bettina Speckman, J\'er\^ome
Urhausen, Kevin Verbeek
- Abstract要約: バイアス除去の可能なアプローチをモデル化する幾何学的問題について検討する。
優先事項として、各プロパティに従ってデータを分類することが"簡単"であると仮定する。
我々のゴールは、より低次元ユークリッド空間 Rm への適切な射影により、ある性質による分類を妨害することである。
- 参考スコア(独自算出の注目度): 2.456909016197174
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning and data mining techniques are effective tools to classify
large amounts of data. But they tend to preserve any inherent bias in the data,
for example, with regards to gender or race. Removing such bias from data or
the learned representations is quite challenging. In this paper we study a
geometric problem which models a possible approach for bias removal. Our input
is a set of points P in Euclidean space R^d and each point is labeled with k
binary-valued properties. A priori we assume that it is "easy" to classify the
data according to each property. Our goal is to obstruct the classification
according to one property by a suitable projection to a lower-dimensional
Euclidean space R^m (m < d), while classification according to all other
properties remains easy.
What it means for classification to be easy depends on the classification
model used. We first consider classification by linear separability as employed
by support vector machines. We use Kirchberger's Theorem to show that, under
certain conditions, a simple projection to R^(d-1) suffices to eliminate the
linear separability of one of the properties whilst maintaining the linear
separability of the other properties. We also study the problem of maximizing
the linear "inseparability" of the chosen property. Second, we consider more
complex forms of separability and prove a connection between the number of
projections required to obstruct classification and the Helly-type properties
of such separabilities.
- Abstract(参考訳): 機械学習とデータマイニングは、大量のデータを分類するための効果的なツールである。
しかし、例えば性別や人種に関して、データに固有のバイアスは残されがちです。
このようなバイアスをデータや学習した表現から取り除くことは、非常に難しい。
本稿では,バイアス除去のアプローチをモデル化する幾何問題について考察する。
入力はユークリッド空間 r^d における点 p の集合であり、各点には k 個の二値特性がラベル付けされる。
優先事項では、各プロパティに従ってデータを分類するのは「簡単」であると仮定する。
本研究の目的は,低次元ユークリッド空間 r^m (m < d) に対する適切な射影による一つの性質による分類を阻害することであり,他のすべての性質による分類は依然として容易である。
分類が容易であることの意味は、使用する分類モデルに依存する。
まず,線形分離性による分類をサポートベクタマシンで採用する。
キルヒベルガーの定理を用いて、ある条件下では、r^(d-1) への単純な射影が、他の性質の線形分離性を保ちながら、その特性の1つの線形分離性を排除できることを示した。
また,選択した特性の線形「分離性」を最大化する問題についても検討する。
第二に,より複雑な分離可能性について考察し,分類を阻害するために必要な射影数とそれらの分離性のヘリー型特性との関係を証明した。
関連論文リスト
- Synergistic eigenanalysis of covariance and Hessian matrices for enhanced binary classification [72.77513633290056]
本稿では, 学習モデルを用いて評価したヘッセン行列をトレーニングセットで評価した共分散行列の固有解析と, 深層学習モデルで評価したヘッセン行列を組み合わせた新しい手法を提案する。
本手法は複雑なパターンと関係を抽出し,分類性能を向上する。
論文 参考訳(メタデータ) (2024-02-14T16:10:42Z) - Relative intrinsic dimensionality is intrinsic to learning [49.5738281105287]
本稿では,データ分布の固有次元の概念を導入し,データの分離性特性を正確に把握する。
この本質的な次元に対して、上の親指の規則は法則となり、高本質的な次元は高度に分離可能なデータを保証する。
本稿では,2進分類問題における学習と一般化の確率について,上界と下界の両方に相対固有次元を与えることを示す。
論文 参考訳(メタデータ) (2023-10-10T10:41:45Z) - Beyond Separability: Analyzing the Linear Transferability of Contrastive
Representations to Related Subpopulations [50.33975968859988]
コントラスト学習(Contrastive Learning)は、ラベルのないデータを用いて、下流の分類タスクに線形に分離可能な表現を生成する、非常に効果的な手法である。
最近の研究では、対照的表現はデータが単一のドメインから来るときに有用であるだけでなく、ドメイン間での転送にも有効であることが示されている。
論文 参考訳(メタデータ) (2022-04-06T09:10:23Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Classification of high-dimensional data with spiked covariance matrix
structure [0.2741266294612775]
我々は高次元データの分類問題を$n$で研究し、$p$の特徴を観察する。
本稿では,まず,次元還元空間における分類に先立って特徴ベクトルの次元還元を行う適応型分類器を提案する。
結果の分類器は、$n rightarrow infty$ および $s sqrtn-1 ln p rightarrow 0$ のときにベイズ最適であることが示される。
論文 参考訳(メタデータ) (2021-10-05T11:26:53Z) - Multilevel orthogonal Bochner function subspaces with applications to
robust machine learning [1.533771872970755]
このデータを、関連するボヒナー空間内のランダムフィールドのインスタンスとみなす。
私たちのキーとなる観察は、クラスが主に2つの異なる部分空間に存在することである。
論文 参考訳(メタデータ) (2021-10-04T22:01:01Z) - Linear Classifiers in Mixed Constant Curvature Spaces [40.82908295137667]
我々は、ユークリッド空間、球面空間、双曲空間の混合である積空間形式の線形分類の問題に対処する。
我々は、$d$-次元定数曲率空間の線形分類子が正確に$d+1$点を粉砕できることを証明した。
新規なパーセプトロン分類アルゴリズムを記述し、厳密な収束結果を確立する。
論文 参考訳(メタデータ) (2021-02-19T23:29:03Z) - Evaluating Fairness of Machine Learning Models Under Uncertain and
Incomplete Information [25.739240011015923]
属性分類器のテスト精度は下流モデルにおけるバイアス推定の有効性と常に相関しているとは限らない。
我々の分析は,属性分類器の誤りを可能な限り不均一に分配したいという状況において,意外かつ直感的な意味を持っている。
論文 参考訳(メタデータ) (2021-02-16T19:02:55Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Signal classification using weighted orthogonal regression method [0.0]
本稿では,各クラス固有の構造を,対応する固有成分を介して活用する新しい分類法を提案する。
提案手法は,各サブ空間の基底を選択するために,各クラスから取得したデータのSVDによる固有ベクトルを含む。
それは、意思決定基準が2つのクラスを識別する効果的な重み付けであると考えている。
論文 参考訳(メタデータ) (2020-10-12T19:12:14Z) - Null It Out: Guarding Protected Attributes by Iterative Nullspace
Projection [51.041763676948705]
Iterative Null-space Projection (INLP) は神経表現から情報を取り除く新しい方法である。
提案手法は,単語埋め込みにおけるバイアスを軽減するとともに,複数クラス分類の設定において公平性を高めることができることを示す。
論文 参考訳(メタデータ) (2020-04-16T14:02:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。