論文の概要、ライセンス

# (参考訳) 深部クラスタリングに基づくFair Outlier Detection [全文訳有]

Deep Clustering based Fair Outlier Detection ( http://arxiv.org/abs/2106.05127v1 )

ライセンス: CC BY 4.0
Hanyu Song, Peizhao Li, Hongfu Liu(参考訳) 本稿では,教師なし異常検出に関する公平性の問題に着目する。 従来のアルゴリズムは、アルゴリズムの公正性のための特定の設計を持たず、暗黙的にデータをエンコードし、統計バイアスを伝播させ、社会的関心を高めることができる。 このような不公平さを正し、潜在的外れ値候補の公平なセットを提供するため、学習可能な表現をセンシティブな属性にサブグループ不変にしつつ、有効性最大化のよい表現を学習する深層クラスタリングベースのフェア外れ値検出(dcfod)を提案する。 クラスタリングと外れ値検出の結合性と相互性を考慮すると、深層クラスタリングを利用して、固有のクラスタ構造と外構造インスタンスを発見する。 一方、敵対的トレーニングは、フェアネス適応のインスタンスの敏感なパターンを消去する。 動的重み付けモジュールは,外れ値からの負の影響を緩和しながら,帰納可能性の寄与を再強調する。 提案手法は,17個の外乱検出アルゴリズムと比較した8つのデータセットの実験により実証され,外乱検出の妥当性と,外乱検出における2種類の公正性の概念の両方において,常に優れた性能を達成している。

In this paper, we focus on the fairness issues regarding unsupervised outlier detection. Traditional algorithms, without a specific design for algorithmic fairness, could implicitly encode and propagate statistical bias in data and raise societal concerns. To correct such unfairness and deliver a fair set of potential outlier candidates, we propose Deep Clustering based Fair Outlier Detection (DCFOD) that learns a good representation for utility maximization while enforcing the learnable representation to be subgroup-invariant on the sensitive attribute. Considering the coupled and reciprocal nature between clustering and outlier detection, we leverage deep clustering to discover the intrinsic cluster structure and out-of-structure instances. Meanwhile, an adversarial training erases the sensitive pattern for instances for fairness adaptation. Technically, we propose an instance-level weighted representation learning strategy to enhance the joint deep clustering and outlier detection, where the dynamic weight module re-emphasizes contributions of likely-inliers while mitigating the negative impact from outliers. Demonstrated by experiments on eight datasets comparing to 17 outlier detection algorithms, our DCFOD method consistently achieves superior performance on both the outlier detection validity and two types of fairness notions in outlier detection.
公開日: Wed, 9 Jun 2021 15:12:26 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Deep Clustering based Fair Outlier Detection 深部クラスタリングに基づくFair Outlier Detection 0.85
Hanyu Song, Peizhao Li, Hongfu Liu 漢陽宋・平潮・本府利 0.45
Michtom School of Computer Science, Brandeis University ブランダイス大学 michtom school of computer science 0.66
{shydaniel,peizhaoli, hongfuliu}@brandeis.edu shydaniel,peizhaoli, hongfuliu}@brandeis.edu 0.87
Waltham, MA, USA Waltham, MA, USA (英語) 0.71
1 2 0 2 n u J 1 2 0 2 n u J 0.85
9 ] G L . 9 ] G L。 0.81
s c [ 1 v 7 2 1 5 0 sc [ 1 v 7 2 1 5 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
ABSTRACT In this paper, we focus on the fairness issues regarding unsupervised outlier detection. 本稿では,非教師付き異常検出に関する公平性の問題に着目する。 0.54
Traditional algorithms, without a specific design for algorithmic fairness, could implicitly encode and propagate statistical bias in data and raise societal concerns. 従来のアルゴリズムは、アルゴリズムの公正性のための特定の設計を持たず、暗黙的にデータをエンコードし、統計バイアスを伝播させ、社会的関心を高めることができる。 0.57
To correct such unfairness and deliver a fair set of potential outlier candidates, we propose Deep Clustering based Fair Outlier Detection (DCFOD) that learns a good representation for utility maximization while enforcing the learnable representation to be subgroup-invariant on the sensitive attribute. このような不公平さを正し、潜在的外れ値候補の公平なセットを提供するため、学習可能な表現をセンシティブな属性にサブグループ不変にしつつ、有効性最大化のよい表現を学習する深層クラスタリングベースのフェア外れ値検出(dcfod)を提案する。 0.66
Considering the coupled and reciprocal nature between clustering and outlier detection, we leverage deep clustering to discover the intrinsic cluster structure and out-ofstructure instances. クラスタリングと外乱検出の結合性と相互性を考慮すると、深層クラスタリングを利用して、固有のクラスタ構造と外乱インスタンスを発見する。 0.72
Meanwhile, an adversarial training erases the sensitive pattern for instances for fairness adaptation. 一方、敵対的トレーニングは、フェアネス適応のインスタンスの敏感なパターンを消去する。 0.49
Technically, we propose an instance-level weighted representation learning strategy to enhance the joint deep clustering and outlier detection, where the dynamic weight module re-emphasizes contributions of likely-inliers while mitigating the negative impact from outliers. 動的重み付けモジュールは,外れ値からの負の影響を緩和しながら,帰納可能性の寄与を再強調する。
訳抜け防止モード: 技術的には, 統合的深層クラスタリングと異常検出を強化するために, レベル重み付け表現学習戦略を提案する。 動的重みモジュールre - 可能性の高い貢献を強調しながら、外れ値からの負の影響を緩和する。
0.66
Demonstrated by experiments on eight datasets comparing to 17 outlier detection algorithms, our DCFOD method consistently achieves superior performance on both the outlier detection validity and two types of fairness notions in outlier detection. 提案手法は,17個の外乱検出アルゴリズムと比較した8つのデータセットの実験により実証され,外乱検出の妥当性と,外乱検出における2種類の公正性の概念の両方において,常に優れた性能を達成している。
訳抜け防止モード: 17の外れ値検出アルゴリズムと比較した8つのデータセットの実験によって実証された。 我々のDCFOD法は、両方の異常検出精度において一貫して優れた性能を達成する フェアネスの概念は2種類あります
0.62
CCS CONCEPTS • Computing methodologies→ Anomaly detection; • Applied computing → Law, social and behavioral sciences. CCS ConCEPTS • Computing Methodologies→Anomaly Detection; • Applied Computing → Law, Social and Behavioral Sciences 0.79
KEYWORDS Outlier Detection; Fair Representation Learning; Deep Clustering on Outlier Detection KEYWORDS Outlier Detection; Fair Representation Learning; Deep Clustering on Outlier Detection 0.85
ACM Reference Format: Hanyu Song, Peizhao Li, Hongfu Liu. ACM参照フォーマット:Hanyu Song, Peizhao Li, Hongfu Liu 0.73
2021. Deep Clustering based Fair Outlier Detection. 2021. 深部クラスタリングに基づくFair Outlier Detection 0.77
In Proceedings of the 27th ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD ’21), August 14–19, 2021, Virtual Event, Singapore. 第27回ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD ’21), August 14–19, 2021, Virtual Event, Singapore に参加して 0.84
ACM, New York, NY, USA, 9 pages. ACM, New York, NY, USA, 9ページ。 0.80
https://doi.org/10.1 145/ 3447548.3467225 https://doi.org/10.1 145/3447548.3467225 0.34
Permission to make digital or hard copies of all or part of this work for personal or classroom use is granted without fee provided that copies are not made or distributed for profit or commercial advantage and that copies bear this notice and the full citation on the first page. 本作品のデジタル又はハードコピー又は一部を個人的又は教室で使用するための許可は、利益または商業的利益のためにコピーが作成または配布されず、コピーがこの通知及び第1ページの引用を満たしていることが条件として、無償で付与される。
訳抜け防止モード: この作品の全部又は一部をデジタル又はハードコピーして個人または教室での使用許可 手数料なしで与えられます 利益や商業上の利益のためにコピーは作られない そのコピーには この通知と 最初のページの全文が書かれています
0.82
Copyrights for components of this work owned by others than ACM must be honored. ACM以外の者が所有するこの作品のコンポーネントの著作権を尊重しなければならない。 0.62
Abstracting with credit is permitted. クレジットによる抽象化は許可されている。 0.48
To copy otherwise, or republish, to post on servers or to redistribute to lists, requires prior specific permission and/or a fee. サーバーにポストしたり、リストを再配布したりするには、事前の特定の許可と/または料金が必要である。 0.60
Request permissions from permissions@acm.org. permissions@acm.org からの許可を要求する。 0.65
KDD ’21, August 14–19, 2021, Virtual Event, Singapore. KDD ’21, August 14–19, 2021, Virtual Event, Singapore 0.86
© 2021 Association for Computing Machinery. 2021年 - 計算機学会設立。 0.56
ACM ISBN 978-1-4503-8332-5/21 /08...$15.00 https://doi.org/10.1 145/3447548.3467225 ACM ISBN 978-1-4503-8332-5/21 /08...$15.00 https://doi.org/10.1 145/3447548.3467225 0.31
1 INTRODUCTION Utility-oriented machine learning systems have trickled down to the real-world in aid of high-stake decision making in various fields. 1 イントロデュークション ユーティリティ指向の機械学習システムは、様々な分野における高い意思決定を支援するために、現実世界に浸透している。 0.67
The inherent bias brought by unbalanced data and embedded in those models, if not controlled with specific algorithmic design, will inevitably backfire and deteriorate the existing social barricades. 不均衡なデータによって引き起こされ、特定のアルゴリズム設計で制御されていなければ、それらのモデルに埋め込まれた固有のバイアスは、必然的にバックファイアし、既存の社会的バリケードを悪化させます。 0.50
Due to the rising societal concerns, fairness in machine learning has received increasing attention in recent years [7, 16, 21, 32]. 社会的懸念の高まりにより,近年,機械学習の公正さが注目されている[7,16,21,32]。 0.63
Outlier detection is one of the most vulnerable domains in face of the lurking algorithmic unfairness. 外乱検出はアルゴリズムの不公平さに直面する最も脆弱な領域の1つである。 0.69
The task is to find rare or suspicious individuals that deviate from the majority. その任務は、多数派から逸脱する稀で不審な個人を見つけることである。 0.52
Due to the strong correlation between the minority and outliers, an outlier detector might easily suffer from discrimination against certain sensitive attributes like ethnicity or gender. 少数派と外れ者の間に強い相関関係があるため、外れた検出器は、民族や性別のような特定の繊細な属性に対する差別に苦しむ可能性がある。 0.59
For instance, in credit risk assessment, credit card applicants may suffer from a biased credit scoring algorithm against certain sexuality [12]; racial equality will deteriorate when criminality detection heavily hinges on the object’s appearance [40]. 例えば、信用リスク評価では、クレジットカード申請者は特定のセクシュアリティに対する偏りのある信用スコアアルゴリズムに苦しむ可能性がある [12]。
訳抜け防止モード: 例えば、信用リスク評価では、クレジットカード申請者は、一定のセクシュアリティ[12]に対してバイアス付クレジットスコアリングアルゴリズムに悩まされることがある。 人種的平等は、犯罪検出がオブジェクトの外観に重きを置くと悪化します [40]。
0.69
To recognize the significance of equality preservation, we need to address the urgent demands of fairnessaware outlier detection methods. 平等保存の意義を認識するためには,公平な異常検出手法の緊急要求に対処する必要がある。 0.66
However, this recently-emerged task has received little attention before 2020 and has not been fully addressed yet. しかし、最近導入されたこのタスクは2020年以前にはほとんど注目されず、まだ完全に解決されていない。 0.54
On a colloquial formulation, unsupervised fair outlier detection aims to find potential outlier candidates that substantially differ from the majority instances while maintaining insignificant to sensitive attribute subgroups1 (i.e., gender or ethnicity) [8]. 口語的定式化において、教師なしの公正な外れ値検出は、重要属性サブグループ1(性別または民族)に無意味を維持しながら、多数例と大きく異なる潜在的な外れ値候補を見つけることを目的としている [8]。 0.58
To our best knowledge, only two methods exist along this direction and are both proposed in 2020. 私たちの知る限りでは、この方向には2つの方法しか存在せず、どちらも2020年に提案された。 0.56
Deepak and Abraham [9] propose the FairLOF algorithm, which improves classical LOF [2] in regards to three heuristic principles: neighborhood diversity, apriori distribution, and attribute asymmetry, to prevent an unfair sensitive subgroup distribution among top-ranked outlier candidates. DeepakとAbraham [9]はFairLOFアルゴリズムを提案し、このアルゴリズムは近隣の多様性、アプリオリ分布、属性非対称性の3つのヒューリスティック原理に関して古典的なLOF [2]を改善する。
訳抜け防止モード: Deepak と Abraham [9 ] は、近所の多様性、アプリオリ分布、属性非対称性の3つのヒューリスティック原理に関して古典的LOF [2 ] を改善する FairLOF アルゴリズムを提案する。 上位の上位候補間の不当な機密サブグループ分布を防止する。
0.78
Shekhar et al [46] design FairOD, a deep model using a standard autoencoder component for self-reconstruction with the statistical parity and group fidelity as fairness constraints to ensure the majority protected subgroup share the same outlier rate as the minority one. Shekhar et al [46] design FairOD, a deep model using a standard autoencoder component for self-reconstruction with the statistics parity and group fidelity as fairness constraints to ensure the majority protected subgroup shared the same outlier rate as the minority。
訳抜け防止モード: shekhar et al [46 ] design fairod, a deep model using a standard autoencoder component for self - reconstruction with the statistical parity and group fidelity as fairness constraints 多数派保護サブグループが少数派と同一の異常率を共有することを保証する。
0.91
Although the above attempts have made pioneering progress in addressing this newly emerging yet crucial problem, we see some limitations in the existing work that could be further improved. 上記の試みは、この新しく出現するが重要な問題に対処するための先駆的な進歩をもたらしたが、既存の作業がさらに改善される可能性のあるいくつかの制限がある。 0.58
FairLOF operates on the original feature space, which limits its capacity towards detection accuracy and fairness degree. FairLOFはオリジナルの特徴空間で動作し、検出精度と公平度に制限される。
訳抜け防止モード: FairLOFはオリジナルの機能空間で運用されている。 検出精度と公正度に限界があります
0.74
Since the original feature space often does not expose much information on the underlying data pattern, it adds difficulty to separate anomalies from inliers. 元の機能空間は、基礎となるデータパターンについてあまり情報を公開しないことが多いので、異常と異常を分離するのは難しい。 0.61
FairOD employs the classic autoencoder for representation learning via minimizing the self-reconstruction loss and uses FairODは自己再構成損失の最小化による表現学習のための古典的オートエンコーダと利用 0.68
1In the paper we use "sensitive attribute subgroup", "sensitive subgroup", and "protected subgroup" interchangeably. 1)本論文では,「感度属性サブグループ」,「感度サブグループ」,「保護サブグループ」を相互に使用した。 0.70
英語(論文から抽出)日本語訳スコア
it as the outlier detection criteria. However, such a deep embedding treats all samples indifferently. 異常検出基準です しかし、そのような深い埋め込みは全てのサンプルを無関心に扱う。 0.43
It does not filter the noise and disruptions that outliers may impose on the feature space, thus preventing itself from pursuing high performance. 外れ値が特徴空間に課す可能性のあるノイズや破壊をフィルタリングしないため、高性能を追求することができない。 0.75
Moreover, existing methods evaluate fairness degree only in terms of the outlier rates in different groups, while ignoring the disparate predictive validity between groups, which could also lead to unjust results. さらに, 従来の手法では, グループ間の差分予測の妥当性を無視しながら, 異なるグループにおける外れ率の観点でのみ公正度を評価することができた。 0.83
Consider the case where an outlier detector returns a consistent 5% outlier rate for two sensitive subgroups, but the true positive rates for two groups are 5% and 10%, respectively. 外乱検出器が2つの敏感な部分群に対して一貫した5%外乱率を返す場合を考えるが、2つの群の正の率はそれぞれ5%と10%である。 0.75
The detector yields a huge performance penalty on the second subgroup, yet such a performance gap is unrecognizable under the existing evaluative phase. 検出器は第2サブグループに対して大きな性能ペナルティを与えるが、そのような性能ギャップは既存の評価フェーズでは認識できない。 0.72
Finally, existing methods mostly perform evaluations on a limited number of benchmarks, including synthetic datasets. 最後に、既存の手法は主に、合成データセットを含む限られた数のベンチマークで評価を行う。 0.60
An extensive exploration with more real-world datasets is heavily needed. より現実世界のデータセットによる広範な探索は、非常に必要です。 0.61
To solve the above challenges, we propose a novel Deep Clustering based Fair Outlier Detection (DCFOD) method. 以上の課題を解決するために,本研究では,Deep Clustering based Fair Outlier Detection (DCFOD)法を提案する。 0.75
Inspired by the reciprocal relationship between outlier detection and clustering [4, 35], we employ a joint deep clustering/outlier detection framework and propose weighted representation learning towards each instance. 異常検出とクラスタリング [4, 35] の相互関係に着想を得て,協調型ディープクラスタリング/異常検出フレームワークを採用し,各インスタンスに対する重み付き表現学習を提案する。 0.75
The degree of outlierness for each individual is associated with the distance to its nearest cluster centroid. 各個体の異常度は、最寄りのクラスター中心点までの距離と関係している。 0.68
The dynamic weight module enhances outlier detection validity by reemphasizing likely-inliers’ contributions while mitigating outliers’ negative impacts. 動的重みモジュールは、外れ値の負の影響を緩和しながら、潜在的不利者の貢献を再強調することにより、外れ値検出の妥当性を高める。
訳抜け防止モード: 動的重みモジュールは、異常検出の妥当性を高める 可能性を再強調する - 外れ値の悪影響を緩和しながら、inliersの貢献。
0.56
To simultaneously ensure fairness adaptation, we utilize fairness-adversarial training with a min-max strategy to conceal sensitive information and achieve group fairness, while preserving the feature validity on the embedded representation. フェアネス適応を同時に確保するために,min-max戦略を用いたフェアネス・アドバーサルトレーニングを用いて,埋め込み表現の特徴的妥当性を保ちつつ,機密情報を隠蔽し,集団公平性を達成する。 0.58
In terms of fairness evaluation, we propose two metrics to measure the degree of fairness, based on the diagnostic ability gap among subgroups and the subgroup distribution drift among top-ranked outliers. フェアネス評価では, 下位グループ間の診断能力ギャップと下位グループ分布のドリフトに基づいて, フェアネスの度合いを測定する2つの指標を提案する。 0.77
To sum up, we underline our contributions as follows: まとめると、私たちの貢献は下記のとおりである。 0.72
• We address the newly-emerged fair outlier detection problem and propose a novel Deep Clustering based Fair Outlier Detection (DCFOD) framework. • 新たに出現したfair outlier detection問題に対処し,新しいdeep clustering based fair outlier detection(dcfod)フレームワークを提案する。 0.86
• Our DCFOD adopts representation learning and fairnessadversarial training, with a novel dynamic weight in regulation of negative impacts from outlier points, to obtain a downstream task-favorable representation while simultaneously ensuring improvement in fairness degree. •dcfodは, 表現学習とフェアネスアドバーサルトレーニングを採用し, 異常点からの負の影響の制御において新たな動的重み付けを施し, 公平度の向上を両立しながら下流のタスクファクトリブルな表現を得る。 0.73
• We strengthen the fairness measurements in the context of outlier detection by proposing two fairness metrics that test subgroup-wise agnostic ability gap and subgroup distribution drift in detected outliers. • 異常検出の文脈における公平度測定の強化は,検出された外れ値における部分群別無依存能力ギャップと部分群分布ドリフトをテストする2つの公平度指標を提案することによって行う。
訳抜け防止モード: • 異常検出の文脈における公平度測定の強化 サブグループをテストする2つの公平度メトリクス - ワイズ無依存な能力ギャップと検出された外れ値のサブグループ分布ドリフト。
0.69
• Extensive experiments on eight real-world public datasets demonstrate evident edge of DFCOD on all metrics in competitions with 17 unsupervised outlier detection methods, including recently-proposed fair outlier detection methods and other conventional outlier detection algorithms. • 8つの実世界の公開データセットに対する大規模な実験は、最近提案された公正な外れ値検出法や他の従来の外れ値検出アルゴリズムを含む17の非教師なしの外れ値検出手法と競合する全ての指標において、DFCODのエッジが明らかであることを示している。 0.53
2 RELATED WORK In this section, we illustrate the related work in terms of unsupervised outlier detection, deep outlier detection, fair machine learning, and recent advances in fair outlier detection. 2 関連研究として,教師なし異常検出,深い異常検出,公平な機械学習,公平な異常検出の最近の進歩について述べる。
訳抜け防止モード: 2 関連WORK 本項では, 教師なし外乱検出の観点から, 関連作業について解説する。 奥行き検出、公正な機械学習、そして最近の公正な外れ行き検出の進歩。
0.64
Unsupervised Outlier Detection. Typical unsupervised outlier detection algorithms calculate a continuous score for each data point to quantify its outlier degree. 教師なしの異常検知 典型的な教師なし異常検出アルゴリズムは、その異常度を定量化するために各データポイントの連続スコアを計算する。
訳抜け防止モード: 教師なしの異常検知 典型的な教師なし外乱検出アルゴリズムは、各データポイントの連続スコアを計算する 外れ度を定量化できます
0.59
Based on diverse assumptions, 様々な仮定に基づいて 0.82
a number of outlier detection methods have been proposed, including linear models [44, 47], proximity-based models [2, 15, 18, 48], and probability-based models [25, 33]. 線形モデル [44, 47] や近接モデル [2, 15, 18, 48] ,確率モデル [25, 33] など,多くの異常検出手法が提案されている。 0.77
Moreover, some studies purse outlier detection by subspace learning [24], low-rank [55], matrix-completion [19], and random walk [41]. さらに, サブスペース学習[24], 低ランク[55], 行列補完[19], ランダムウォーク[41]による外乱検出を行う研究もある。 0.76
Since most abovementioned methods rely heavily on various assumptions, ensemblebased outlier detectors are brought up to alleviate assumption dependence, including iForest [34], bi-sampling outlier detection [36], feature bagging [28], lightweight online detector of anomalies [43], and clustering with outlier removal [35]. 上記の手法の多くは様々な仮定に大きく依存しているため,iForest[34],bi-samplingoutlier detection[36], feature bagging[28], lightweight online detector of anomalies[43], clustering with outlier removal[35]など,アンサンブルベースの異常検知器が仮定依存を軽減するために起動される。 0.91
Deep Outlier Detection. ディープ・アウトレイア検出。 0.46
Recent advances in representation learning [17, 26] have demonstrated that deep neural networks are capable of extracting effective features for downstream tasks. 表現学習 [17, 26] の最近の進歩は、深層ニューラルネットワークが下流タスクに有効な特徴を抽出できることを示した。 0.86
The key in deep outlier detection is to seek a self-supervised signal for representation learning. 深い外れ値検出の鍵は、表現学習のための自己教師付き信号を求めることである。 0.61
Autoencoder [1] and variational autoencoder [22] are two widely used frameworks that optimize the selfreconstruction loss. autoencoder [1] と variational autoencoder [22] は、自己再構成損失を最適化する2つの広く使用されているフレームワークである。 0.67
Their variants include robust autoencoder with 𝐿1 sparse constraint [57], autoencoder ensemble [5] and stacked autoencoder [50]. L1スパース制約[57]、オートエンコーダアンサンブル[5]、スタックされたオートエンコーダ[50]を含む。
訳抜け防止モード: 彼らの変種には、L1スパース制約[57 ]を持つロバストオートエンコーダが含まれる。 autoencoder アンサンブル [ 5 ] と stacked autoencoder [ 50 ]
0.77
Other state-of-the-art deep approaches include random mapping [51], which predicts proximity information in a randomly projected space; generative adversarial networks [29, 54], which focuses on generating fake outliers by min-max training; predictability models [37], which predicts the current data instances using the representations of the previous instances within a temporal window. その他の最先端の深層アプローチとしては、ランダムに投影された空間内の近接情報を予測するランダムマッピング [51] 、min-maxトレーニングによる偽の外れ値生成に焦点を当てた生成的逆ネットワーク [29, 54] 、時間窓内の以前のインスタンスの表現を使用して現在のデータインスタンスを予測する予測可能性モデル [37] などがある。 0.77
More details on deep outlier detection can be found in this recent review [42]. 深い外れ値の検出に関する詳細は,先日の[42]のレビューで確認することができる。 0.68
Fair Machine Learning and Fair Outlier Detection. 公平な機械学習と公正な外部検出。 0.61
According to various application scenarios, abundant fairness notions have been proposed, including individual fairness [10], where similar individuals are expected to be treated in a similar fashion; group fairness [10, 23, 31], where samples in different groups ought to be treated equally; subgroup fairness [20], which extends group fairness by demanding fairness on combinations of groups (i.e. 様々な応用シナリオにおいて、類似した個人が同様の方法で扱われることを想定する個別の公正性(10)、異なるグループのサンプルが等しく扱われるべき集団の公正性(10,23,31)、グループの組み合わせに対して公正性を要求するサブグループフェア性(20)など、集団の公正性(20)など多様な公正性の概念が提案されている。 0.78
subgroups); causality-based fairness [6, 27], where causal inference on multiple features is conducted to track the relationship between sensitive attributes and samples while mitigating historical bias. 因果関係に基づく公平性 [6, 27] では、履歴バイアスを緩和しながら、機密属性とサンプルの関係を追跡するために、複数の特徴に対する因果推論が行われる。 0.73
Aside from fairness definitions, debiasing techniques can be categorized into three main approaches: pre-processing [13], in-processing [39, 53] and post-processing [38]. 公平性の定義とは別に、デバイアス技術は前処理 [13] 、内処理 [39, 53] 、後処理 [38] の3つの主要なアプローチに分類できる。 0.73
The deep representation learning is a typical in-processing method that incorporates fairness constraints into the model optimization objectives to obtain an ideal model parameterization that maximizes performance and fairness [3]. 深層表現学習は、フェアネス制約をモデル最適化目標に組み込んで、性能とフェアネスを最大化する理想的なモデルパラメータ化を得る典型的な内部処理手法である[3]。 0.74
In particular, representation learning with adversary has become a widely-used method in recent years and has demonstrated effectiveness on multiple tasks, including anonymization [11], clustering [32], classification [39], transfer learning [39], and domain adaptation [30, 49]. 特に,adversaryを用いた表現学習は近年広く利用されている手法であり,匿名化[11],クラスタリング[32],分類[39],転送学習[39],ドメイン適応[30,49]など,複数のタスクにおいて有効である。 0.76
Existing two algorithms in pursuit of fair outlier detection typically target group fairness and contain a post-processing technique that seeks an outlier ranking that is consistent with the baseline result. 公平な外れ値検出を追求する既存の2つのアルゴリズムは、通常、グループフェアネスをターゲットとし、ベースライン結果と一致する外れ値ランキングを求める後処理技術を含んでいる。 0.71
FairLOF [9] is the first paper to address the fair outlier detection problem, which incorporates a corrective term on the baseline LOF algorithm, in regards to local sensitive subgroup diversity and global outlier alignment with the baseline. FairLOF [9]は, 局所感度サブグループの多様性と, ベースラインとのグローバル・アウトリーアライメントに関して, ベースラインLOFアルゴリズムに補正項を組み込んだ, フェア・アウトリー検出問題に対処する最初の論文である。 0.87
FairOD [46] is another pioneering work, which has recently been released on arXiv. FairOD [46]も先駆的な作品で、arXivで最近リリースされた。 0.58
This method targets an equal outlier rate on the majority and minority sensitive subgroups. この方法は、多数派と少数派に敏感な部分群に対して等速率を目標としている。 0.48
Specifically, it employs an autoencoder [1] as 具体的には、autoencoder [1] を使用する。 0.77
英語(論文から抽出)日本語訳スコア
Figure 1: Overview of Deep Clustering based Fair Outlier Detection. 図1: ディープクラスタリングに基づくフェアアウトリア検出の概要。 0.77
The model conducts weighted representation learning with min-max training between the feature extractor and fairness-adversarial subgroup discriminator to conceal the protected subgroups on the learned representation and eventually achieve subgroup-invariant outlier detection. モデルでは,特徴抽出器とフェアネス・アドバーサル部分群判別器との最大訓練を用いて重み付き表現学習を行い,保護された部分群を学習表現上に隠蔽し,最終的に部分群不変外れ検出を実現する。 0.58
Distance-based outlier scoring then propagates weight adjustment to guide learning on the next iteration. 距離ベースのアウトリースコアリングは、次のイテレーションで学習をガイドするために重量調整を伝搬する。 0.56
the base outlier detector and performs subgroup debiasing with statistical parity fairness constraint, while maintaining fidelity to within-group rankings with respect to the baseline. ベースアウトリアー検出器は、ベースラインに関してグループ内ランキングへの忠実性を維持しつつ、統計的パリティフェアネス制約を伴うサブグループデバイアスを行う。 0.73
However, one concern the post-processing approach may have is the baseline restricting the fair model’s detection validity, due to their aligned outlier ranking. しかし、後処理アプローチが抱える懸念の1つは、整列した外付けランクのため、フェアモデルの検出妥当性を制限するベースラインである。 0.65
Therefore, we set to tackle the fair outlier detection problem with an in-processing deep representation learning methodology, where we ensure detecting validity on the learned task-friendly feature space while conducting fairnessadversarial training to concurrently maintain group fairness. そこで,本研究では,学習したタスクフレンドリーな特徴空間において,集団フェアネスを両立させるフェアネスアドバーサルトレーニングを行いながら妥当性を保証し,インプロセス深層表現学習手法を用いて公平な異常検出問題に取り組む。 0.65
3 FAIR OUTLIER DETECTION Given a set of data instances with categorical sensitive attributes, unsupervised fair outlier detection aims to seek top outlier candidates in a sensitive attribute-invariant fashion. unsupervised fair outlier detectionは、カテゴリに敏感な属性を持つ一連のデータインスタンスに対して、機密性の高い属性不変な方法で最上位のoutlier候補を求めることを目的としている。 0.61
Specifically, we define the unsupervised fair outlier detection problem as follows: Problem Formulation (Unsupervised fair outlier detection). 具体的には,非教師付きフェア異常検出問題(unsupervised fair outlier detection)を次のように定義する。 0.81
Given data points 𝑋 = {𝑥𝑖}𝑁 𝑖=1 in space X sampled i.i.d. データ点 X = {xi}N i=1 in space X sampled i.d。 0.95
from an underlying distribution D, with sensitive attribute 𝑆 = {𝑠𝑖}𝑁 𝑖=1 ranging in 𝑀 subgroup classes 𝐶 = {𝑐𝑖}𝑀 𝑖=1 and inaccessible ground truth outlier label 𝑌 , the problem of unsupervised fair outlier detection aims to seek an outlier score assignment 𝑂 = {𝑜𝑖}𝑁 𝑖=1 that faithfully distinguishes the underlying outliers from the majority inliers, while maintaining statistical independence to sensitive subgroups, 機密属性 S = {si}N i=1 を M サブグループクラス C = {ci}M i=1 と到達不能な接地真理外値ラベル Y で表すと、教師なしの公正な外値検出の問題は、下位の外値と大多数の内値との統計的独立性を忠実に区別する外値スコア代入 O = {oi}N i=1 を求めることを目的としている。 0.70
(1) Pr[𝑜𝑖 = 𝑜|𝑠𝑖 = 𝑐] = Pr[𝑜𝑖 = 𝑜],∀𝑜 ∈ R, 𝑐 ∈ 𝐶, 𝑖 ∈ [1, 𝑁], and holding an accuracy parity between sensitive subgroups, (1) Pr[oi = o|si = c] = Pr[oi = o],\o ∈ R, c ∈ C, i ∈ [1, N] であり、感度部分群間の精度の正当性を保持する。 0.85
ED𝑖 [|𝑌 − 𝑂| |𝑆 = 𝑐𝑖] = ED𝑗 [|𝑌 − 𝑂| |𝑆 = 𝑐 𝑗],∀𝑖, 𝑗 ∈ [1, 𝑀], (2) Eq. ED𝑖 [|𝑌 − 𝑂| |𝑆 = 𝑐𝑖] = ED𝑗 [|𝑌 − 𝑂| |𝑆 = 𝑐 𝑗],∀𝑖, 𝑗 ∈ [1, 𝑀], (2) Eq. 0.94
(1) and (2) both reflect the targeted group fairness [10, 23]. 1)と(2)の両方が対象のグループフェアネス [10, 23] を反映している。 0.79
In Eq (1), the probability distribution of 𝑂 is invariant to sensitive subgroups; In Eq (2), where D𝑖 denotes the underlying data distribution for subgroup 𝑖, the detection discrepancy between the true labels and outlier scores ought to be the same for all subgroups. eq (1) では、o の確率分布は敏感な部分群に対して不変であり、eq (2) では、di が部分群 i の基盤となるデータ分布を表す場合、真のラベルと外れ値の間の検出の不一致は、すべての部分群に対して同じであるべきである。
訳抜け防止モード: eq ( 1 ) において、o の確率分布は感度部分群に対して不変である ; eq (2 ) において diはサブグループiの基盤となるデータ分布を表す。 真のラベルと外れ値の間の検出誤差は、すべてのサブグループで同じであるべきである。
0.82
Existing methods [9, 46] on fair outlier detection achieve group fairness by balancing out the protected subgroup diversity, which adds difficulty to outlier uncovering as it blurs the underlying data pattern. 公正な外れ値検出における既存の手法[9,46]は、保護されたサブグループの多様性のバランスをとることでグループフェアネスを実現する。 0.68
To alleviate that downside, they preserve a consistent outlier ranking with respect to a pre-obtained baseline result, yet this may also impose restrictions on detection validity. この欠点を和らげるためには、事前拘束されたベースライン結果に関して一貫性のある外れ値ランキングを維持するが、検出の妥当性に制限を課すこともある。 0.54
Motivated by the above limitations, we adopt the representation learning with 上記の限界に動機づけられ 表現学習を取り入れ 0.54
Table 1: Main notations and descriptions 表1:主な表記及び記述 0.79
Notation 𝑁 𝑀 𝐷 𝐾 𝑥𝑖 𝑠𝑖 𝑐𝑖 𝑜𝑖 𝑤𝑖 𝜇𝑘 表記 𝑁 𝑀 𝐷 𝐾 𝑥𝑖 𝑠𝑖 𝑐𝑖 𝑜𝑖 𝑤𝑖 𝜇𝑘 0.71
Type Input Input Input Input Input Input Type Input Input Input Input Input Input 0.85
Description Number of instances Number of subgroup classes Dimension of embedded feature space Number of clusters Vector of 𝑖-th data point Sensitive subgroup of 𝑖-th data point Learnable Cluster membership of 𝑖-th data point Learnable Outlier score of 𝑖-th data point Learnable Weight of 𝑖-th data point Learnable Vector of 𝑘-th centroid 説明 インスタンス数 サブグループのクラス数 埋め込み特徴空間の次元 クラスタ数 ベクター数 i-thデータポイントの感性サブグループ i-thデータポイントの学習可能なクラスタメンバシップ i-thデータポイントの学習可能なアウトリースコア i-thデータポイントの学習可能なウェイト k-thデータポイントの学習可能なベクター 0.78
adversarial training framework, which guarantees the detection accuracy on a task-favorable feature space, while achieving the expected group fairness by hiding sensitive subgroup information on the learned representation. 学習した表現にセンシティブなサブグループ情報を隠蔽することにより、期待されたグループ公平性を達成すると同時に、タスクフェーラブルな特徴空間における検出精度を保証する。 0.71
4 METHODOLOGY We elaborate our proposed Deep Clustering based Fair Outlier Detection (DCFOD), using symbols summarized in Table 1. 4 MethodOLOGY 我々は,表1にまとめたシンボルを用いて,Deep Clustering based Fair Outlier Detection (DCFOD)を提案する。 0.85
4.1 Framework Overview Unsupervised fair outlier detection can be decomposed into unsupervised outlier detection and fair learning. 4.1 フレームワークの概要 unsupervised fair outlier detection は教師なしのoutlier detection と fair learning に分解できる。 0.79
Inspired by the huge progress in deep neural networks, we tackle the above two problems under a same umbrella with representation learning. ディープニューラルネットワークの大きな進歩に触発されて、表現学習を伴う同じ傘の下で、上記の2つの問題に取り組む。 0.64
Figure 1 shows our proposed DCFOD framework. 図1は提案したDCFODフレームワークを示している。 0.60
Administered by a dynamic weight, the representation learning of DCFOD consists of a feature extractor and a fairness-adversarial counterpart. 動的重みによって調整されたDCFODの表現学習は、特徴抽出器とフェアネス対逆法からなる。 0.65
For fairness-adaptation, we conduct a min-max training, where a sensitive subgroup discriminator strives to predict instances’ subgroup category, while the feature extractor undermining that prediction. 公平性適応のために、我々はmin-maxトレーニングを行い、敏感なサブグループ判別器がインスタンスのサブグループカテゴリを予測し、特徴抽出器がその予測を損なう。 0.66
Expected group fairness is achieved when the prediction ceases to improve, due to the neutralization of the subgroup information on the learned feature embedding. 学習された特徴埋め込みに関するサブグループ情報の中立化により、予測が改善されないと期待されたグループフェア性が達成される。 0.73
The dynamic weight module secures the outlier detection validity amidst fair learning. 動的重みモジュールは、公正学習中の外れ値検出妥当性を確保する。 0.74
Specifically, we perform a joint clustering and outlier detection on the embedded space. 具体的には,組込み空間上で共同クラスタリングと外乱検出を行う。 0.78
Given the strong coupling between clustering and outlier detection, the well-discovered cluster structure fosters outlier uncovering, while assisting the weight calculation. クラスタリングと外れ値検出の強い結合を考えると、よく発見されたクラスタ構造は、重み計算を補助しながら、異常値の解明を促進する。 0.61
Data points close to their associated centroids are assigned higher weights while 関連するセントロイドに近いデータポイントは、より高い重量に割り当てられる。 0.68
英語(論文から抽出)日本語訳スコア
those far away from centroids, identified as potential outlier candidates, are assigned lower weights. 遠方から遠ざかって 潜在的な異常候補と特定された者は 体重を減らしている 0.58
Therefore, inlier points with dominant weights capture the intrinsic cluster structure, which, in turn, brings benefits to outlier detection. したがって、支配的な重みを持つ慣性点が内在的なクラスター構造を捉え、それが外在的検出に利益をもたらす。 0.71
By this means, we diminish outliers’ disturbance on representation learning, thus guaranteeing the outlier diagnostic quality on the obtained representation. これにより,表現学習における異常者の障害を軽減し,得られた表現の異常診断品質を保証できる。 0.63
4.2 Weighted Representation Learning We denote the feature extractor and subgroup discriminator as 𝑓 and 𝑔, where 𝑓 seeks a latent representation for samples 𝑋 and 𝑔 predicts its sensitive subgroup membership, i.e., 𝑓 : X → Z ⊆ R𝐷, 𝑔 : Z → R𝑀. 4.2 重み付き表現学習 特徴抽出器と部分群判別器を f と g と表現し、f はサンプル X に対して潜在表現を求め、g はその敏感な部分群のメンバーシップ、すなわち f : X → Z → RD, g : Z → RM を予測する。 0.71
Furthermore, we formulate 𝐾 cluster centroids on the latent space: 𝜇 ⊆ R𝐾×𝐷, and calculate outlier score 𝑜𝑖 with dynamic weight 𝑤𝑖 for each instance 𝑥𝑖. さらに,潜在空間上で k 個のクラスターセンタロイドを定式化し,各インスタンス xi に対して動的重み wi を持つ外積スコア oi を計算する。 0.68
Based on the above components, we establish the training objective as three loss functions: selfreconstruction loss L𝑠, fairness-adversarial loss L𝑓 , and clustering regularization L𝑟 . これらに基づき, 自己再構成損失Ls, フェアネス対逆損失Lf, クラスタリング正規化Lrの3つの損失関数として, 学習目標を確立する。 0.72
In what follows, we elaborate the formulations of each component and the calculation of 𝑜𝑖 and 𝑤𝑖. 以下に示すように、各成分の定式化と oi と wi の計算について詳しく述べる。 0.67
Self-reconstruction Loss. We employ a weighted autoencoder as the feature extractor, which contains an encoder 𝑓 that seeks a feature representation and a decoder ℎ : Z → X to reconstruct back to the original space. 自己再建損失。 特徴抽出器として重み付きオートエンコーダを用い、特徴表現を求めるエンコーダfとデコーダh : Z → Xを具備して元の空間に再構成する。 0.61
The weight module 𝑤𝑖, which will be elaborated in detail in Eq (9), mitigates the negative impact from outliers’ abnormal feature representations on model parameter training. 重みモジュール wi は Eq (9) で詳しく説明され、モデルパラメータのトレーニングにおける異常な特徴表現による負の影響を緩和する。 0.77
L𝑠, with a L2 distance, is expressed as: L2 距離を持つ Ls は次のように表現される。 0.74
L𝑠 (cid:66) Ls (cid:66) 0.84
𝑤𝑖 · ∥𝑥𝑖 − ℎ ◦ 𝑓 (𝑥𝑖)∥2 2, 𝑤𝑖 · ∥𝑥𝑖 − ℎ ◦ 𝑓 (𝑥𝑖)∥2 2, 0.97
(3) where ◦ denotes the function composition. (3) ここで s は関数合成を表す。 0.69
Fairness-adversarial Loss. フェアネス-敵対的損失。 0.33
Furthermore, the learned representation is also expected to be sensitive subgroup-invariant. さらに、学習された表現は敏感な部分群不変量であることが期待される。 0.46
To achieve this, we employ a sensitive attribute subgroup discriminator 𝑔 predicting each data point’s likelihood of 𝑀 subgroup categories in the latent space. これを実現するために、潜在空間におけるMサブグループカテゴリの各データポイントの確率を予測する機密属性サブグループ判別器gを用いる。 0.74
L𝑓 records the predicting loss as follows: lfは予測損失を次のように記録する。 0.63
𝑁∑︁ 𝑖 𝑁∑︁ 𝑖 𝑁∑︁ 𝑖 𝑁∑︁ 𝑖 0.72
L𝑓 (cid:66) Lf (cid:66) 0.84
𝑤𝑖 · ℓ(𝑔 ◦ 𝑓 (𝑥𝑖), 𝑠𝑖), 𝑤𝑖 · ℓ(𝑔 ◦ 𝑓 (𝑥𝑖), 𝑠𝑖), 0.74
(4) where ℓ is the cross-entropy loss and 𝑠𝑖 is the true subgroup class for 𝑥𝑖. (4) ここで l はクロスエントロピー損失であり si は xi の真の部分群クラスである。 0.77
During the fairness min-max training, 𝑔 and 𝑓 are trained in opposite directions. 公平な min-max トレーニングの間、g と f は反対方向に訓練される。 0.66
Specifically, 𝑔 aims to accurately predict protected subgroups via minimizing L𝑓 , while 𝑓 , in adversary, maximizes the loss by hiding protected information on the feature embedding. 具体的には、g は Lf を最小化することで保護された部分群を正確に予測することを目的としており、f は逆に、特徴埋め込みの保護情報を隠すことで損失を最大化する。 0.54
As training progresses, the obtained feature representation becomes subgroup-invariant for fair outlier detection. トレーニングが進むにつれて、得られた特徴表現は、公正な外れ値検出のためにサブグループ不変となる。 0.47
Clustering Assignment and Regularization. クラスタリングの割り当てと正規化。 0.69
To perform joint clustering and outlier detection, we first obtain a soft clustering assignment 𝑃 on the feature embedding. 統合クラスタリングと異常検出を行うために,まず,特徴埋め込み上でのソフトクラスタリング割り当てpを求める。 0.72
Specifically, we calculate the probability of assigning each 𝑓 (𝑥𝑖) ∈ Z to each of the 𝐾 clusters based on its distance to the centroids with Student’s t-distribution: 具体的には、各f(xi) ∈ zを各kクラスターに割り当てる確率を、学生のt分布を持つ中心体までの距離に基づいて算出する。 0.78
𝑝𝑖𝑘 (cid:66) pik (複数形 piks) 0.40
𝐾 2)−1 (1 + ∥𝑓 (𝑥𝑖) − 𝜇𝑘∥2 𝑗 (1 + ∥𝑓 (𝑥𝑖) − 𝜇 𝑗 ∥2 2)−1 𝐾 2)−1 (1 + ∥𝑓 (𝑥𝑖) − 𝜇𝑘∥2 𝑗 (1 + ∥𝑓 (𝑥𝑖) − 𝜇 𝑗 ∥2 2)−1 0.90
, (5) where 𝑝𝑖𝑘 is the probability of assigning the 𝑖-th data point to the 𝑘-th cluster, and 𝜇𝑘 denotes the 𝑘-th cluster centroid. , (5) pik は i 番目のデータポイントを k 番目のクラスタに割り当てる確率であり、μk は k 番目のクラスタセントロイドを表す。 0.79
The degree of freedom for the t-distribution is 1. t-分布の自由度は 1 である。 0.74
Algorithm 1 DCFOD Input: Data point 𝑥𝑖 with subgroup membership 𝑠𝑖, 𝑖 = 1 to 𝑁 ; アルゴリズム1 dcfod入力:サブグループメンバーシップsi, i = 1 から n ; データポイントxi
訳抜け防止モード: アルゴリズム1 dcfod入力 : サブグループメンバーシップsiを用いたデータポイントxi, 𝑖 = 1 to 𝑁 ;
0.85
Cluster number 𝐾. Learning rate 𝜂. クラスタ番号K。 学習率η。 0.70
Output: Continuous outlier score 𝑜𝑖, 𝑖 = 1 to 𝑁 . 出力: 連続出力スコア oi, i = 1 to N 。 0.68
1: Initialize parameters for 𝑓 , 𝑔, and ℎ; 2: 𝜇 ← 𝐾𝑚𝑒𝑎𝑛𝑠([𝑓 (𝑥1), · · · , 𝑓 (𝑥𝑁 )], 𝐾); 3: while model not converged do 4: 1: f, g, h のパラメータの初期化 (initialize parameters for f , g, and h; 2: μ ] kmeans([f (x1), · · · , f (xn )], k); 3: モデルが収束しない場合は do 4: である。 0.83
Calculate the soft assignment 𝑝𝑖𝑘 and the auxiliary distribution 𝑞𝑖𝑘 by Eq (5) and (6); Calculate the outlier score of each data point 𝑜𝑖 by Eq (8); Calculate the weight of each data point 𝑤𝑖 by Eq (9); Calculate ▽L𝑓 with 𝑤𝑖, 𝑠𝑖, 𝑓 , and 𝑔; Calculate ▽(L𝑠 + L𝑟 − L𝑓 ) with 𝑤𝑖, 𝑝𝑖𝑘, 𝑞𝑖𝑘, 𝑠𝑖, 𝑓 , 𝑔, ℎ and 𝜇; Update 𝑔 ← 𝑔 − 𝜂 ▽ L𝑓 ; Update (𝑓 , ℎ, 𝜇) ← (𝑓 , ℎ, 𝜇) − 𝜂 ▽ (L𝑠 + L𝑟 − L𝑓 ); Eq (8), Eq (9), Eq (9), wi, si, f , and g; wi, pik, qik, si, f , g, h, μ; Update g , g − η > Lf ; Update (f , h, μ) > (Ls + Lr − Lf ) ; Update (f , h, μ) - η > Lf ; Update (f , h, μ) ; Update (Ls + Lr − Lf ) ; Update (f , h, μ) - η Lf ; Update (f , h, μ)
訳抜け防止モード: ソフト割り当て pik と補助分布 qik を eq (5 ) で計算する。 そして (6 ) ; eq (8) で各データポイント oi の外れ値を計算する。 eq (9 ) で各データポイント wi の重みを計算する。 lf を wi, si, f, g で計算し、 ( ls + lr − lf ) を wi で計算する。 𝑝𝑖𝑘, 𝑞𝑖𝑘, 𝑠𝑖, 𝑓, 𝑔, ℎ and 𝜇 ; Update 𝑔 ← 𝑔 − 𝜂 ▽ L𝑓 ; Update ( 𝑓 , ℎ , 𝜇 ) ← ( 𝑓 , ℎ , 𝜇 ) − 𝜂 ▽ ( L𝑠 + L𝑟 − L𝑓 ) ;
0.83
5: 6: 7: 8: 9: 10: 11: end while 12: return Outlier score 𝑜𝑖 for 𝑖 = 1 to 𝑁 . 5: 6: 7: 8: 9: 10: 11: end while 12: return Outlier score oi for i = 1 to N . 0.85
To strengthen the cluster predictive confidence, we follow Xie et al [52] and employ a clustering regularizer, which computes an auxiliary distribution 𝑄 based on the soft clustering assignment 𝑃 as follows: クラスタ予測の信頼性を高めるために,xie と al [52] をフォローし,ソフトクラスタリング割り当て p に基づいて補助分布 q を計算するクラスタリング正規化器を用いる。 0.73
𝑞𝑖𝑘 (cid:66) Qik (cid:66) 0.78
. (6) 𝑖𝑘/𝑁 𝑖 𝑗/𝑁 𝐾 . (6) 𝑖𝑘/𝑁 𝑖 𝑗/𝑁 𝐾 0.78
𝑝2 𝑗 𝑝2 𝑖 𝑝𝑖𝑘 𝑝2 𝑗 𝑝2 𝑖 𝑝𝑖𝑘 0.82
𝑖 𝑝𝑖 𝑗 In this way, the auxiliary distribution enlarges the distinctions between predictions on different clusters. 𝑖 𝑝𝑖 𝑗 このようにして、補助分布は異なるクラスタ上の予測の区別を拡大する。 0.83
The clustering regularizer then pulls 𝑃 toward 𝑄 by minimizing their KL divergence. クラスタリング正規化器は KL の発散を最小限にして P を Q へ引き上げる。 0.61
Similar to the above losses, L𝑟 is also regulated by the weight module: 上記の損失と同様、Lrも重みモジュールによって制御される。 0.66
L𝑟 (cid:66) Lr (cid:66) 0.84
𝑤𝑖 · DKL(𝑃∥𝑄) = wi · DKL(P\Q) = 0.92
𝑤𝑖 · 𝑝𝑖𝑘 · log wi · pik · log 0.85
𝑝𝑖𝑘 𝑞𝑖𝑘 . (7) 𝑝𝑖𝑘 𝑞𝑖𝑘 . (7) 0.85
𝑁∑︁ 𝐾∑︁ 𝑖 𝑘 𝑁∑︁ 𝐾∑︁ 𝑖 𝑘 0.72
𝑁∑︁ 𝑖 Outlier Score. 𝑁∑︁ 𝑖 外付けスコア。 0.64
Outliers are conceptually defined by clusters as data points that deviate from the majority cluster structure. アウトレーヤは、多数クラスタ構造から逸脱するデータポイントとして、クラスタによって概念的に定義される。 0.60
Based on that, we define outlierness as the within-cluster distance ratio to the centroid. これに基づいて,クラスタ間距離比を遠心率と定義する。 0.58
Specifically, 𝑜𝑖 is computed by the Euclidean distance between 𝑓 (𝑥𝑖) and its closest centroid, normalized by that of the furthest point belonging to the same centroid: min𝑘∈[1,𝐾] ∥𝑓 (𝑥𝑖) − 𝜇𝑘∥2 具体的には、oi は f (xi) と最も近い中心点の間のユークリッド距離で計算され、同じ中心点に属する最も深い点のそれによって正規化される。 0.65
𝑜𝑖 (cid:66) 大炊(cid:66) 0.54
max𝑗 ∈[1,𝑁 ] I𝑚 𝑗 =𝑘 · ∥𝑓 (𝑥 𝑗) − 𝜇𝑘∥2 max𝑗 ∈[1,𝑁 ] I𝑚 𝑗 =𝑘 · ∥𝑓 (𝑥 𝑗) − 𝜇𝑘∥2 0.93
, (8) where I is an indicator function, and 𝑚 𝑗 is the most probable cluster membership for the 𝑗-th point, based on clustering distribution 𝑃. , (8) I は指標関数であり、m j はクラスタリング分布 P に基づいて、j 番目の点の最も確率の高いクラスタメンバシップである。 0.82
Weight Module. To mitigate negative impacts from outliers, we guide the representation learning with an instance-level weight module 𝑤𝑖, where we deemphasize outliers with lower weights compared to inliers. 重量モジュール。 降圧器から負の影響を緩和するため、インスタンスレベルの重みモジュールwiを用いて表現学習を指導し、降圧器をインレーヤよりも低い重みで強調する。
訳抜け防止モード: 重量モジュール。 外れ値からの負の影響を緩和する。 インスタンスで表現学習をガイドします - レベル重みモジュール wi, 下降率を下降率と下降率で強調します
0.68
Specifically, 𝑤𝑖 in L𝑠 alleviates the disruption in feature extractor’s parameter updating due to outliers’ abnormal feature representations; 𝑤𝑖 in L𝑟 prevents strengthening the predictive confidence for outliers, as conceptually, they do not belong to any cluster; For 𝑤𝑖 in L𝑓 , the idea is to increase focus in subgroup debiasing on potential outlier candidates. 特に、Lsのwiは、異常な特徴表現による特徴抽出器のパラメータ更新の中断を緩和し、Lrのwiは、任意のクラスタに属しない概念として、外れ値の予測信頼性を強化するのを防ぐ。
訳抜け防止モード: 特に、Lsのwiは、異常な特徴表現による特徴抽出器のパラメータ更新の中断を緩和する。 Lr の wi は、概念的には、外れ値の予測信頼性を強化するのを防ぐ。 クラスターに属さないのです Lf の wi に対して、この考え方は、潜在的な外れ値候補に対する部分群脱バイアスの焦点を増すことである。
0.66
Therefore, with the above 𝑜𝑖, we compute the dynamic weight mechanism that governs the designated components in our objective as follows: したがって、上述の「おおい」を用いて、以下の目的の指定成分を管理する動的重み機構を計算する。 0.79
𝑤𝑖 (cid:66) wi (cid:66) 0.84
, (9) 𝑒−𝑜𝑖𝑁 , (9) 𝑒−𝑜𝑖𝑁 0.76
𝑗 𝑒−𝑜 𝑗 𝑗 𝑒−𝑜 𝑗 0.78
英語(論文から抽出)日本語訳スコア
correlation with 𝑜𝑖, while keeping𝑁 アイとの相関を保ちながら 0.49
which is essentially a Softmax function imposed on the negative values of outlier scores. これは基本的に、外れ値の負の値に課されるソフトマックス関数である。 0.59
We design 𝑤𝑖 such that it is in negative 𝑖 𝑤𝑖 = 1, a global balance that 負の i wi = 1 となるような wi を設計する。
訳抜け防止モード: 負の i wi = 1 となるような wi を設計する。 グローバルなバランスは
0.75
avoids weights excessively overvalued. 重みが過大評価されるのを避けるのです 0.34
In conclusion, the overall objective function of our framework 結論として 枠組みの全体的な目的関数は 0.79
max 𝑓 , ℎ, 𝜇 最大 f, h, μ 0.80
can be written as the following minimax optimization: L𝑓 , 以下のminimax最適化として書くことができる。 0.66
𝛽L𝑓 − 𝛼L𝑠 − L𝑟 , min𝑔 βLf − αLs − Lr , ミング 0.87
(10) where 𝛼 and 𝛽 are hyperparameters that control the balance in the objective function. (10) 目的関数のバランスを制御するαとβはハイパーパラメータである。 0.79
In the end, our method returns a set of outlier scores that maintains detection validity and group fairness. 最後に,検出の妥当性とグループフェアネスを維持したアウトリースコアのセットを返却する。 0.58
The complete process of DCFOD is shown in Algorithm 1. DCFODの完全なプロセスはアルゴリズム1に示されている。 0.77
5 EXPERIMENT In this section, we first introduce the experimental settings, datasets and evaluative metrics for outlier validation and degree of fairness. この節では、まず実験的な設定、データセット、評価指標を紹介し、外れ値の検証と公平度について述べる。 0.55
Then we compete our model with 17 unsupervised outlier detection methods on eight public datasets. 次に、8つの公開データセット上で17の教師なし外乱検出手法でモデルを競合する。 0.57
Finally, we conduct a factor exploration on our model for an in-depth analysis. 最後に,本モデルに対する因子探索を行い,詳細な分析を行った。 0.73
5.1 Experimental Setup Datasets. 5.1 実験的セットアップデータセット。 0.62
We choose eight UCI 2 datasets in diverse fields, including credit rating, personal income, academic performance, drug review, and clinical screening. 我々は、信用格付け、個人所得、学業成績、薬物レビュー、臨床検査など、さまざまな分野のUCI 2データセットを8つ選択する。 0.69
Table 2 shows detailed characteristics of these datasets. 表2はこれらのデータセットの詳細な特徴を示している。 0.56
All datasets except german contain either Gender or Race as the sensitive attribute, while that of german is provided as a combination of gender and marital status. ドイツ語を除くすべてのデータセットは、性別または人種を繊細な属性として含むが、ドイツ語のデータセットは、性別と夫婦のステータスの組み合わせとして提供される。
訳抜け防止モード: ドイツ語以外のすべてのデータセットは、感性属性としてジェンダーまたはレースを含む。 ドイツはジェンダーと夫婦の 地位を兼ね備えています
0.76
The Outlier Definition column shows the benchmark outlier criteria for each dataset, which is used as the ground truth for outlier validation. 外れ値定義コラムは、外れ値検証の基礎的真実として使用される各データセットのベンチマーク外れ値基準を示している。 0.64
The numbers of instances in these datasets vary from 704 to nearly 300,000, and the outlier percentage ranges from 6.2% to 30%. これらのデータセットのインスタンス数は704から3000,000近くで、外れた割合は6.2%から30%である。 0.78
Competitive Methods. We compare our model with the fair outlier detectors FairLOF [9], FairOD [46], and 15 conventional unsupervised outlier detection methods, including linear models: Principal Component Analysis (PCA) [47], One-class Support Vector Machine (OCSVM) [44]; proximity-based models: Local Outlier Factor (LOF) [2], Connectivity-Based Outlier Factor (COF) [48], Clustering Based Local Outlier Factor (CBLOF) [18]; probabilitybased models: Fast angle-based Outlier Detector (FABOD) [25], Copula Based Outlier Detector (COPOD) [33]; ensemble-based models: Feature Bagging (FB) [28], iForest [34], Lightweight On-line Detector of Anomalies (LODA) [43], Clustering with Outlier Removal (COR) [35]; neural networks: AutoEncoder (AE) [1], Variational Auto Encoder (VAE) [22], Random Distance Prediction (RDP) [51]. 競争法。 We compare our model with the fair outlier detectors FairLOF [9], FairOD [46], and 15 conventional unsupervised outlier detection methods, including linear models: Principal Component Analysis (PCA) [47], One-class Support Vector Machine (OCSVM) [44]; proximity-based models: Local Outlier Factor (LOF) [2], Connectivity-Based Outlier Factor (COF) [48], Clustering Based Local Outlier Factor (CBLOF) [18]; probabilitybased models: Fast angle-based Outlier Detector (FABOD) [25], Copula Based Outlier Detector (COPOD) [33]; ensemble-based models: Feature Bagging (FB) [28], iForest [34], Lightweight On-line Detector of Anomalies (LODA) [43], Clustering with Outlier Removal (COR) [35]; neural networks: AutoEncoder (AE) [1], Variational Auto Encoder (VAE) [22], Random Distance Prediction (RDP) [51]. 0.71
Implementation. We implement FairLOF, FairOD in PyTorch, build RDP, COR based on their public source code, and other classical outlier detection methods are implemented with PyOD [56]. 実装。 PyTorch で FairLOF, FairOD を実装し,その公開ソースコードに基づいて RDP, COR を構築し,PyOD [56] で他の古典的外れ値検出手法を実装した。 0.70
In practice, we use the following default settings. 実際には、以下のデフォルト設定を使用します。 0.68
The hyperparameters for FairLOF and FairOD strictly follow their literature. FairLOFとFairODのハイパーパラメータは、その文献に厳密に従っている。 0.63
The number of nearest neighbors for LOF, COF, and FABOD are set to 20; the number of clusters for CBLOF and COR are set to 10; the number of bins and random cuts for LODA is 10 and 100, respectively; the number of base estimators and sub-sampling size for iForest are 100 and 256 respectively; the base estimator for feature bagging is LOF, its number of estimators is 10 and its sub-sampling 2https://archive.ics .uci.edu/ml/datasets .php 最寄りのLOF、COF、FABODの数は20に、CBLOF、CORのクラスタ数は10に、LODAのビンとランダムカットの数は10に、iForestのベース推定器とサブサンプリングサイズはそれぞれ100と256に、フィーチャーバッグのベース推定器はLOF、サブサンプリング器は10に、サブサンプリング器は2https://archive.ics .uci.edu/ml/datasets に設定されている。
訳抜け防止モード: LOF、COF、FABODの隣人数は20に設定されている。 CBLOF と COR のクラスタ数は 10 に設定されている。 LODAのビンとランダムカットの数は、それぞれ10と100である iForestのベース推定値とサブサンプリングサイズはそれぞれ100と256である。 特徴バッグングの基底推定器はLOF, 推定者の数は10です 2https://archive.ics .uci.edu/ml/datasets .php
0.80
Table 2: Characteristics of datasets #Features 表2:データセットの特徴#Features 0.84
Sensitive Attribute Dataset student 感性属性 Dataset の学生 0.78
asd obesity asd obesity 0.85
cc german drug adult kdd cc ドイツの麻薬大人のkdd 0.75
#Instances 1045 704 2111 30000 1000 1885 48842 299285 #インスタンス 1045 704 2111 30000 1000 1885 48842 299285 0.79
33 21 17 24 21 13 14 40 33 21 17 24 21 13 14 40 0.85
Domain Academic Clinical Clinical Credit Credit Drug Income Income ドメイン・アカデミック・クリニカル・クレジット・ドラッグ・インカム 0.46
Gender Gender Gender Gender 性別 性別 性別 性別 0.58
Gender Race Race Marital & Gender ジェンダーレース Marital & Gender 0.64
Outlier Definition Final grade ≤ 6 Outlier Definition Final grade ≤ 6 0.85
Should pursue diagnosis Insufficient weight 診断を追求し 体重不足 0.72
Used within last week Credit default Good credit 先週に使われました クレジットデフォルト グッドクレジット 0.67
Income > 50K Income > 50K Income > 50K Income > 50K 0.92
%Outlier 9.58% 26.84% 13.60% 22.12% 30.00% 8.44% 23.93% 6.2% %Outlier 9.58% 26.84% 13.60% 22.12% 30.00% 8.44% 23.93% 6.2% 0.64
size equals to the sample size. サイズはサンプルサイズと等しい。 0.67
For AE and VAE, the hidden neuron structures are 64-32-32-64 and 128-64-32-32-64-128. AEおよびVAEでは、隠れたニューロン構造は64-32-32-64と128-64-32-32-64-128である。 0.45
In cases when the feature dimension is smaller than 64, we modify their structures into 16-8-8-16 and 16-8-4-4-8-16, accordingly. 特徴寸法が64未満の場合、構造を16-8-8-16と16-8-4-8-16に変更する。 0.63
Both of them run for 100 epochs with a batch size of 32. どちらも100エポックで動作し、バッチサイズは32である。 0.60
We implement our DCFOD in PyTorch3. 私たちはPyTorch3でDCFODを実装しています。 0.45
In order to showcase the fairness adaptation effect from the adversarial training, we also compare DCFOD with its independent derivative, DCOD. また, 対向訓練からフェアネス適応効果を示すために, dcfod とその独立誘導体 dcod との比較を行った。 0.71
Other than the absence of subgroup discriminator on DCOD, the two versions share the same implementation. DCODにサブグループ判別器がない以外は、2つのバージョンは同じ実装を共有している。 0.67
Specifically, we set the number of clusters to 10 and dimension of embedded space to 64. 具体的には、クラスタの数を10に、埋め込み空間の次元を64に設定する。 0.73
For datasets with sample size greater than 10,000, we set the epoch to 40 and minibatch size to 256 to accelerate training process, otherwise to 90 and 64 respectively. サンプルサイズが10,000を超えるデータセットでは、エポックを40に、ミニバッチサイズを256に設定し、トレーニングプロセスをそれぞれ90と64に加速しました。 0.64
Following Xie et al [52], we set the network structure as drop-𝑛-500-500-2000-64 and 64-2000-500500-𝑛 for encoder and decoder, where drop is a dropout layer with rate 0.1. xie et al [52] に従ってネットワーク構造を drop-n-500-500-2000- 64 および 64-2000-500500-n としてエンコーダとデコーダに設定した。 0.62
We set the structure for the discriminator to be 64-500500-2000-𝑚, and the cluster centroid layer 𝜇 to be of size (10 * 64). 判別器の構造を64-500500-2000-mとし,クラスタ中心層μを10 * 64と設定した。
訳抜け防止モード: 我々は判別器の構造を64-500500-2000-mに設定した。 そして、クラスタセントロイド層 μ はサイズ 10 * 64 である。
0.70
We perform weight initialization on all linear layers with Xavier uniform initialization [14]. 我々はXavierの一様初期化[14]で全線形層上で重み初期化を行う。 0.67
Hyperparameter 𝛼 and 𝛽 are set to 8 and 100 for all datasets. ハイパーパラメータαとβは、すべてのデータセットに対して8と100に設定される。 0.67
The starting learning rate for encoder, decoder and discriminating layer is set to 1𝑒−5, that of the centroid layer is set to 1𝑒−4. エンコーダ、デコーダ及び識別層の開始学習率を1e−5とし、センチロイド層の開始学習率を1e−4とする。
訳抜け防止モード: エンコーダ、デコーダ、識別層の開始学習率を1e−5とする。 中心層は1e−4に設定される。
0.74
Learning rates are multiplied by a factor of 0.1 for every 30 epochs. 学習率は、30エポックごとに0.1倍になる。 0.69
In the embedded space, we initialize the cluster centroids with MiniBatchKmeans [45] implemented in sklearn. 埋め込み空間では、sklearnに実装されたminibatchkmeans [45]でクラスタ中心を初期化する。 0.81
During evaluation process, we report the mean and standard deviation for non-deterministic methods by repeating their experiments on 20 random seeds. 評価過程において,20種のランダム種子に対する実験を繰り返し,非決定論的手法の平均偏差と標準偏差を報告した。 0.68
AE and VAE are not reported as such, since their fluctuations are small enough to be neglected. AEとVAEは、その変動が無視できるほど小さいため、報告されていない。 0.60
Metrics. Since all the outlier detectors return one continuous set of score and all associated datasets provide the ground truth outlier criteria, we use Area Under Receiver Operating Characteristic Curve (AUC) to evaluate the outlier diagnostic ability. メトリクス。 すべての外乱検知器が1つの連続したスコアを返し、関連するすべてのデータセットが基底真理外乱検出基準を提供するので、外乱検出能力を評価するためにAUC(Area Under Receiver Operating Characteristics Curve)を使用する。 0.61
To measure degree of group fairness, we propose 𝐹𝐺𝑎𝑝 and 𝐹𝑅𝑎𝑛𝑘, based on the subgroup-wise diagnostic ability gap and the subgroup distribution drift among top-ranked outliers, respectively. グループフェアネスの度合いを測るため,FGap と FRank を提案する。
訳抜け防止モード: グループフェアネスの度合いを測定する。 サブグループ-賢明な診断能力ギャップに基づくFGapとFRankを提案する。 そして,上位-ランク外層間のサブグループ分布のドリフトは,それぞれ0。
0.69
Moreover, to thoroughly compare the performance of different methods across datasets, we also propose 𝑆𝑐𝑜𝑟𝑒𝐴𝑈 𝐶 and 𝑆𝑐𝑜𝑟𝑒𝐹 functions that aggregate the 𝐴𝑈𝐶 score and fairness measurements on all datasets. さらに,データセット間で異なる手法の性能を徹底的に比較するために,aucスコアとfairness測定を集約する scoreau c と scoref 関数を提案する。 0.68
In specific, AUC evaluates the degree of alignment between the outlier score and the ground truth label under varying thresholds: 具体的には、AUCは、アウトリーチスコアと基底真理ラベルとのアライメントの程度を、異なる閾値で評価する。 0.58
𝐴𝑈𝐶 (cid:66)1 − AUC (cid:66)1 − 0.92
1 |T +||T −| 1 |T +||T −| 0.69
(cid:18) ∑︁ (cid:18) ∑︁ 0.78
∑︁ 𝑥+∈T+ 𝑥−∈T− ∑︁ x+~T+ x−~T− 0.45
I(𝑂(𝑥+) < 𝑂(𝑥−)) + 1 2 I(𝑂(𝑥+) < 𝑂(𝑥−)) + 1 2 0.96
I(𝑂(𝑥+) = 𝑂(𝑥−)) I(O(x+) = O(x−)) 0.98
where T , T +, and T − represent the total sample, true inliers and outliers, respectively, I is an indicator function and 𝑂(𝑥) is the 3Source code: https://github.com/b randeis-machine-lear ning/FairOutlierDete ction T , T + および T − はそれぞれ全サンプル, true inlier と outlier を表しており、I はインジケータ関数であり、O(x) は 3Source コードである。 0.67
(cid:19) (11) (cid:19) (11) 0.82
, , 0.85
英語(論文から抽出)日本語訳スコア
Table 3: Outlier validation comparison of 18 algorithms on 8 benchmark datasets by 𝐴𝑈𝐶 表3: aucによる8つのベンチマークデータセットにおける18のアルゴリズムの異常検証比較 0.67
Dataset student asd データセット 学生 asd 0.75
obesity cc obesity cc 0.85
german drug adult kdd ドイツの麻薬大人のkdd 0.66
Fair Model Proximity Based フェアモデル 確率ベース 0.60
FairLOF 0.662 0.543 0.428 0.465 0.569 0.543 0.486 N/A∗ 0.751 FairLOF 0.662 0.543 0.428 0.465 0.569 0.543 0.486 N/A∗ 0.751 0.43
FairOD 0.717±0.123 0.642±0.214 0.514±0.167 0.554±0.016 0.570±0.021 0.551±0.035 0.605±0.022 0.706±0.003 FairOD 0.717±0.123 0.642±0.214 0.514±0.167 0.554±0.016 0.570±0.021 0.551±0.035 0.605±0.022 0.706±0.003 0.20
Linear Model PCA OCSVM LOF 0.777 0.718 0.630 0.523 0.355 0.720 0.451 0.604 0.546 0.589 0.546 0.562 0.488 0.473 0.661 0.549 0.752 0.854 線形モデル PCA OCSVM LOF 0.777 0.630 0.523 0.355 0.720 0.451 0.604 0.546 0.589 0.546 0.562 0.488 0.473 0.661 0.549 0.752 0.854 0.48
0.848 0.707 0.675 0.621 0.584 0.562 0.525 0.630 0.892 0.848 0.707 0.675 0.621 0.584 0.562 0.525 0.630 0.892 0.42
COF CBLOF 0.761 0.710 0.491 0.387 0.602 0.377 0.579 0.465 0.581 0.568 0.555 0.534 0.474 0.479 N/A 0.687 0.816 0.737 COF CBLOF 0.761 0.710 0.491 0.387 0.602 0.377 0.579 0.465 0.581 0.568 0.555 0.534 0.474 0.479 N/A 0.687 0.816 0.737 0.43
Probability Based FABOD COPOD 0.750 0.834 0.469 0.811 0.742 0.540 0.557 0.531 0.547 0.589 0.556 0.562 0.488 0.471 0.519 0.686 0.882 0.792 Probability Based FABOD COPOD 0.750 0.834 0.469 0.811 0.742 0.540 0.557 0.531 0.547 0.589 0.556 0.562 0.488 0.471 0.519 0.686 0.882 0.792 0.46
FB 0.804 0.521 0.383 0.451 0.582 0.544 0.438 0.566 0.751 FB 0.804 0.521 0.383 0.451 0.582 0.544 0.438 0.566 0.751 0.45
Ensemble Based LODA iForest 0.794±0.054 0.679 0.524±0.152 0.542 0.572±0.134 0.757 0.605±0.001 0.594 0.506±0.034 0.546 0.521±0.055 0.570 0.504±0.095 0.426 0.472±0.114 0.589 0.786 Ensemble Based LODA iForest 0.794±0.054 0.679 0.524±0.152 0.542 0.572±0.134 0.757 0.605±0.001 0.594 0.506±0.034 0.546 0.521±0.055 0.570 0.504±0.095 0.426 0.472±0.114 0.589 0.786 0.29
Neural Networks RDP ニューラルネットワーク RDP 0.74
COR 0.568 0.857 0.552 0.546 0.475 0.522 0.442 0.424 0.821 COR 0.568 0.857 0.552 0.546 0.475 0.522 0.442 0.424 0.821 0.45
AE 0.728 0.627 0.719 0.604 0.546 0.560 0.473 0.661 0.855 AE 0.728 0.627 0.719 0.604 0.546 0.560 0.473 0.661 0.855 0.45
VAE 0.719 0.629 0.719 0.604 0.546 0.562 0.473 0.661 0.854 VAE 0.719 0.629 0.719 0.604 0.546 0.562 0.473 0.661 0.854 0.45
0.834±0.021 0.695±0.037 0.612±0.021 0.597±0.011 0.581±0.030 0.567±0.013 0.541±0.014 0.675±0.000 0.834±0.021 0.695±0.037 0.612±0.021 0.597±0.011 0.581±0.030 0.567±0.013 0.541±0.014 0.675±0.000 0.19
0.886 0.751 𝑆𝑐𝑜𝑟𝑒𝐴𝑈 𝐶 ∗N/A means out-of-memory error. 0.886 0.751 ScoreAU C ∗N/A はメモリ外エラーを意味する。 0.55
For this method, the according dataset is not included in the 𝑆𝑐𝑜𝑟𝑒 measurement calculation. この方法の場合、スコア測定計算には、対応するデータセットは含まれない。 0.72
0.852 Table 4: Degree of fairness comparison of 18 algorithms on 8 benchmarks by 𝐹𝐺𝑎𝑝 0.852 表4:fgapによる8ベンチマークにおける18アルゴリズムの公平度比較 0.72
Proximity Based Dataset 確率ベース データセット 0.55
student asd obesity 学生 asd obesity 0.82
cc german drug adult kdd 𝑆𝑐𝑜𝑟𝑒𝐹 cc ドイツのドラッグアダルトkdd ScoreF 0.78
Fair Model FairLOF 0.008 0.013 0.024 0.001 0.076 0.051 0.151 N/A 0.328 フェアモデル FairLOF 0.008 0.013 0.024 0.001 0.076 0.051 0.151 N/A 0.328 0.59
FairOD 0.043±0.027 0.024±0.019 0.013±0.009 0.004±0.003 0.098±0.041 0.049±0.027 0.059±0.003 0.042±0.004 FairOD 0.043±0.027 0.024±0.019 0.013±0.009 0.004±0.003 0.098±0.041 0.049±0.027 0.059±0.003 0.042±0.004 0.20
0.180 Linear Model PCA OCSVM LOF 0.053 0.001 0.032 0.034 0.069 0.184 0.010 0.005 0.118 0.126 0.036 0.059 0.214 0.103 0.136 0.152 0.123 0.227 0.180 線形モデルPCA OCSVM LOF 0.053 0.001 0.032 0.034 0.069 0.184 0.010 0.005 0.118 0.126 0.036 0.059 0.214 0.103 0.136 0.152 0.123 0.227 0.52
0.042 0.040 0.064 0.012 0.157 0.059 0.040 0.078 0.100 0.042 0.040 0.064 0.012 0.157 0.059 0.040 0.078 0.100 0.42
COF CBLOF 0.100 0.069 0.068 0.016 0.114 0.094 0.006 0.016 0.109 0.151 0.030 0.211 0.071 0.203 0.052 N/A 0.116 0.099 COF CBLOF 0.100 0.069 0.068 0.016 0.114 0.094 0.006 0.016 0.109 0.151 0.030 0.211 0.071 0.203 0.052 N/A 0.116 0.099 0.43
Probability Based FABOD COPOD 0.049 0.011 0.016 0.004 0.239 0.136 0.005 0.007 0.103 0.134 0.114 0.076 0.058 0.081 0.047 0.243 0.210 0.140 Probability Based FABOD COPOD 0.049 0.011 0.016 0.004 0.239 0.136 0.005 0.007 0.103 0.134 0.114 0.076 0.058 0.081 0.047 0.243 0.210 0.140 0.46
FB 0.009 0.004 0.035 0.004 0.098 0.101 0.212 0.146 0.251 FB 0.009 0.004 0.035 0.004 0.098 0.101 0.212 0.146 0.251 0.45
Ensemble Based iForest LODA 0.060±0.040 0.073 0.055±0.036 0.013 0.150±0.125 0.163 0.005±0.000 0.001 0.255±0.081 0.071 0.046±0.042 0.078 0.126±0.050 0.061 0.102±0.061 0.152 0.092 Ensemble Based iForest LODA 0.060±0.040 0.073 0.055±0.036 0.013 0.150±0.125 0.163 0.005±0.000 0.001 0.255±0.081 0.071 0.046±0.042 0.078 0.126±0.050 0.061 0.102±0.061 0.152 0.092 0.29
0.251 COR 0.003 0.030 0.362 0.003 0.186 0.110 0.167 0.087 0.254 0.251 COR 0.003 0.030 0.362 0.003 0.186 0.110 0.167 0.087 0.254 0.52
Neural Networks RDP ニューラルネットワーク RDP 0.74
AE 0.049 0.034 0.181 0.005 0.123 0.034 0.103 0.152 0.126 AE 0.049 0.034 0.181 0.005 0.123 0.034 0.103 0.152 0.126 0.45
VAE 0.053 0.034 0.184 0.005 0.126 0.036 0.103 0.152 0.123 VAE 0.053 0.034 0.184 0.005 0.126 0.036 0.103 0.152 0.123 0.45
0.028±0.006 0.019±0.010 0.047±0.008 0.001±0.001 0.069±0.021 0.025±0.011 0.051±0.012 0.015±0.003 0.028±0.006 0.019±0.010 0.047±0.008 0.001±0.001 0.069±0.021 0.025±0.011 0.051±0.012 0.015±0.003 0.19
0.300 Ours DCOD 0.912±0.011 0.939±0.038 0.800±0.029 0.571±0.018 0.558±0.016 0.588±0.031 0.487±0.072 0.752±0.007 0.300 我々の DCOD 0.912±0.011 0.939±0.038 0.800±0.029 0.571±0.018 0.558±0.016 0.588±0.031 0.487±0.072 0.752±0.007 0.46
0.953 DCFOD 0.921±0.013 0.945±0.032 0.825±0.017 0.566±0.024 0.559±0.013 0.586±0.021 0.592±0.051 0.747±0.011 0.953 DCFOD 0.921±0.013 0.945±0.032 0.825±0.017 0.566±0.024 0.559±0.013 0.586±0.021 0.592±0.051 0.747±0.011 0.40
0.979 Ours DCOD 0.020±0.013 0.034±0.013 0.007±0.006 0.006±0.003 0.068±0.029 0.014±0.010 0.048±0.020 0.054±0.005 0.979 我々の DCOD 0.020±0.013 0.034±0.013 0.007±0.006 0.006±0.003 0.068±0.029 0.014±0.010 0.048±0.020 0.054±0.005 0.46
0.277 DCFOD 0.012±0.011 0.031±0.011 0.004±0.004 0.005±0.004 0.067±0.030 0.009±0.008 0.049±0.015 0.032±0.009 0.277 DCFOD 0.012±0.011 0.031±0.011 0.004±0.004 0.005±0.004 0.067±0.030 0.009±0.008 0.049±0.015 0.032±0.009 0.40
0.402 Figure 2: Execution time comparison on 8 benchmarks. 0.402 図2: 8つのベンチマークでの実行時間の比較。 0.62
outlier score of data point 𝑥 given by one outlier detector. 1つの外れ値検出器によって与えられるデータ点xの外れ値。 0.51
In practice, we use 𝑟𝑜𝑐_𝑎𝑢𝑐_𝑠𝑐𝑜𝑟𝑒 in sklearn.metrics4 to calculate AUC. 実際、sklearn.metrics4 で roc_auc_score を使って auc を計算する。 0.59
For degree of fairness, 𝐹𝐺𝑎𝑝 evaluates the diagnostic validity gap between different protected subgroups, where a smaller gap indicates less group bias. 公平性の度合いについて、FGapは異なる保護されたサブグループ間の診断妥当性ギャップを評価する。
訳抜け防止モード: 公平度のために、fgapは異なる保護サブグループ間の診断妥当性ギャップを評価する。 差が小さいと 集団バイアスが減ります
0.70
Specifically, we calculate the 𝐴𝑈𝐶 score for each subgroup, and derive 𝐹𝐺𝑎𝑝 with the difference between the highest 𝐴𝑈𝐶 and the lowest: 具体的には、各サブグループのAUCスコアを算出し、最高AUCと最低AUCの差でFGapを導出する。 0.63
𝐴𝑈𝐶(T𝑠′), 𝐴𝑈𝐶(T𝑠) − min 𝑠′∈𝑆 AUC(Ts′) AUC(Ts) − min s′∂S 0.77
(12) where 𝑆 is the sensitive subgroup set, and T𝑠 represents the sample in subgroup 𝑠. 𝐴𝑈𝐶(T𝑠) denotes the 𝐴𝑈𝐶 score of group 𝑠. (12) S がセンシティブな部分群集合であり、Ts が部分群 s のサンプルを表す場合、AUC(Ts) は群 s の AUC スコアを表す。 0.86
𝐹𝐺𝑎𝑝 (cid:66) max 𝑠∈𝑆 FGap (cid:66) max s∂S 0.64
Beyond the performance-related fairness, it is crucial to measure whether sensitive subgroups are distributed fairly among detected outliers. 性能に関する公平性を超えて、感度の高い部分群が検出された外れ値の間で公平に分布しているかどうかを測定することが重要である。
訳抜け防止モード: パフォーマンスだけでなく、関連する公平性も重要です 検出された異常者の間で 敏感なサブグループが かなり分散しているかどうかを測定するためです
0.48
𝐹𝑅𝑎𝑛𝑘 achieves that goal by calculating the KL-divergence between the subgroup distribution in top outlier candidates in the output and that of the dataset, which is a reference distribution: FRankはその目標を達成するために、出力における上位外層候補のサブグループ分布と参照分布であるデータセットのKL分割を計算する。 0.81
𝐹𝑅𝑎𝑛𝑘 (cid:66) max 𝑟 ∈𝑅 FRank (cid:66) max r ∈R 0.86
DKL(𝑑𝑟 ∥ ˜𝑑), 𝑅 = {5, 6, 7, ..., 20}, DKL(DKL) 𝑅 = {5, 6, 7, ..., 20}, 0.59
(13) where we rank all output scores from the highest to lowest, with 𝑑𝑟 representing the subgroup distribution among the top 𝑟% outlier candidates derived by the outlier detector, and ˜𝑑 being the fixed reference distribution of the dataset. (13) ここでは、全ての出力スコアを最高から最低にランク付けし、Drは、外乱検出器によって導出される上位r%外乱候補のサブグループ分布を表し、dはデータセットの固定基準分布である。 0.79
Specifically, 𝐹𝑅𝑎𝑛𝑘 records 4https://scikit-lear n.org frank records 4https://scikit-lear n.org 0.56
the most significant distribution drift in a range of top 5% to 20% outliers. 最も重要な分布は、上位5%から20%の範囲で漂流する。 0.69
Both 𝐹𝐺𝑎𝑝 and 𝐹𝑅𝑎𝑛𝑘 are negative measurements, where the smaller value indicates better fairness degree. fgap と frank はともに負の測定値であり、より小さい値はより公平度を示す。 0.60
To better compare model performance under the variability on different datasets, we propose two scoring functions to produce one score for each algorithm on each metric, indicating its aggregated performance across all datasets. 異なるデータセットの可変性下でのモデル性能を比較するために,各メトリックで各アルゴリズムに対して1つのスコアを生成する2つのスコア関数を提案する。 0.78
We denote the collection of algorithms and datasets with 𝐴,𝑇 , and 𝐴(𝑖),𝑇 ( 𝑗) represent the 𝑖-th algorithm and 𝑗-th dataset, respectively. A,T,A(i),T(j) のアルゴリズムとデータセットの集合は,それぞれi-thアルゴリズムとj-thデータセットを表す。 0.79
For the diagnostic validity metric 𝐴𝑈𝐶, we propose 𝑆𝑐𝑜𝑟𝑒𝐴𝑈 𝐶 as the following: 𝐴𝑈𝐶(𝐴(𝑖),𝑇 ( 𝑗)) AUC(A(i),T(j))の診断妥当性指標として,ScoreAU Cを提案する。 0.64
∑︁ 𝑆𝑐𝑜𝑟𝑒𝐴𝑈 𝐶(𝐴(𝑖)) (cid:66) 1 𝐽 ∑︁ ScoreAU C(A(i)) (cid:66) 1 J 0.88
max𝑖 𝐴𝑈𝐶(𝐴(𝑖),𝑇 ( 𝑗)) , maxi AUC(A(i),T (j)) , 0.79
𝑗 (14) where 𝐴𝑈𝐶(𝐴(𝑖),𝑇 ( 𝑗)) is the 𝐴𝑈𝐶 of algorithm 𝐴(𝑖) on dataset 𝑇 ( 𝑗), and 𝐽 is the total number of datasets. 𝑗 (14) ここで AUC(A(i),T(j)) はデータセット T (j) 上のアルゴリズム A(i) の AUC であり、J はデータセットの総数である。 0.84
We then propose 𝑆𝑐𝑜𝑟𝑒𝐹 for the two fairness metrics 𝐹𝐺𝑎𝑝 and 𝐹𝑅𝑎𝑛𝑘, both denoted as 𝐹: 次に、FGapとFRankの2つのフェアネス指標に対してScoreFを提案する。 0.79
𝑆𝑐𝑜𝑟𝑒𝐹 (𝐴(𝑖)) (cid:66) 1 𝐽 ScoreF (A(i)) (cid:66) 1 J 0.98
min𝑖 𝐹(𝐴(𝑖),𝑇 ( 𝑗)) + 𝜖 min𝑖 𝐹(𝐴(𝑖),𝑇 ( 𝑗)) + 𝜖 0.85
𝐹(𝐴(𝑖),𝑇 ( 𝑗)) + 𝜖 𝐹(𝐴(𝑖),𝑇 ( 𝑗)) + 𝜖 0.79
, (15) ∑︁ 𝑗 , (15) ∑︁ 𝑗 0.83
where 𝜖 = 1𝑒−5. In essence, 𝑆𝑐𝑜𝑟𝑒 functions rescale numerical results by normalizing each evaluative value using the best result among all algorithms on the same dataset, then average over the scaled value on all datasets. ε = 1e−5。 スコア関数は、同じデータセット上のすべてのアルゴリズムのベスト結果を使用して各評価値の正規化を行い、すべてのデータセットのスケール値の平均値よりも平均することで、数値結果を再スケールする。 0.72
In the end, higher values of 𝑆𝑐𝑜𝑟𝑒𝐴𝑈 𝐶 and 𝑆𝑐𝑜𝑟𝑒𝐹 indicate better diagnostic validity and more fairness. その結果, ScoreAU C と ScoreF の値が高く, 診断精度が向上し, 公平性が向上した。 0.70
Environment. Experiments were run on a 12 core processor Linux server with Intel Core i7-6850K@3.60 Ghz and 64GB RAM. 環境。 実験はIntel Core i7-6850K@3.60 Ghzと64GB RAMを搭載した12コアのLinuxサーバ上で行われた。 0.71
5.2 Performance Table 3, 4 and 5 show the performance comparison of 18 algorithms on 8 benchmarks in terms of 𝐴𝑈𝐶, 𝐹𝐺𝑎𝑝 and 𝐹𝑅𝑎𝑛𝑘, where the best and second best results are highlighted in red bold and blue italic. 5.2 Performance Table 3, 4 5は、AUC、FGap、FRankの8つのベンチマークにおける18のアルゴリズムのパフォーマンス比較を示す。
訳抜け防止モード: 5.2 性能表 3、4、5 は AUC の8つのベンチマークにおける 18 個のアルゴリズムのパフォーマンス比較を示す。 FGapとFRank 最高の結果と2番目の結果が 赤の大胆さと青のイタリックで強調されます
0.79
For outlier validation validity, different algorithms achieve the best results on different datasets. 外れ値検証のバリデーションのために、異なるアルゴリズムは異なるデータセットで最良の結果を得る。 0.66
OCSVM gets 0.621 on cc, LOF and OCSVMがcc、LOF、0.621を獲得 0.69
英語(論文から抽出)日本語訳スコア
Dataset student asd データセット 学生 asd 0.75
obesity cc obesity cc 0.85
german drug adult kdd 𝑆𝑐𝑜𝑟𝑒𝐹 ドイツのドラッグアダルトkdd ScoreF 0.70
Fair Model FairLOF 0.003 0.012 0.031 0.001 0.101 0.003 0.131 N/A 0.370 フェアモデル FairLOF 0.003 0.012 0.031 0.001 0.101 0.003 0.131 N/A 0.370 0.59
FairOD 0.016±0.010 0.030±0.026 0.008±0.007 0.001±0.000 0.038±0.017 0.007±0.006 0.001±0.000 0.001±0.000 FairOD 0.016±0.010 0.030±0.026 0.008±0.007 0.001±0.000 0.038±0.017 0.007±0.006 0.001±0.000 0.001±0.000 0.20
0.236 Linear Model PCA OCSVM LOF 0.009 0.004 0.023 0.013 0.015 0.013 0.004 0.010 0.102 0.014 0.010 0.003 0.154 0.483 0.185 0.023 0.215 0.279 0.236 線形モデルPCA OCSVM LOF 0.009 0.004 0.023 0.015 0.013 0.004 0.010 0.102 0.010 0.003 0.154 0.483 0.185 0.023 0.215 0.279 0.55
0.067 0.013 0.030 0.010 0.105 0.009 0.009 0.022 0.107 0.067 0.013 0.030 0.010 0.105 0.009 0.009 0.022 0.107 0.42
COF 0.030 0.005 0.018 0.003 0.046 0.001 0.153 N/A 0.391 COF 0.030 0.005 0.018 0.003 0.046 0.001 0.153 N/A 0.391 0.45
CBLOF 0.007 0.023 0.073 0.014 0.061 0.002 0.071 0.016 0.179 CBLOF 0.007 0.023 0.073 0.014 0.061 0.002 0.071 0.016 0.179 0.45
Probability Based FABOD COPOD 0.057 0.008 0.019 0.030 0.067 0.009 0.026 0.012 0.024 0.054 0.009 0.005 0.662 0.244 0.003 0.235 0.126 0.191 Probability Based FABOD COPOD 0.057 0.008 0.019 0.030 0.067 0.009 0.026 0.012 0.024 0.054 0.009 0.005 0.662 0.244 0.003 0.235 0.126 0.191 0.46
FB 0.008 0.007 0.009 0.002 0.148 0.004 0.045 0.057 0.246 FB 0.008 0.007 0.009 0.002 0.148 0.004 0.045 0.057 0.246 0.45
Ensemble Based LODA iForest 0.066±0.070 0.006 0.087±0.236 0.006 0.057±0.187 0.011 0.049±0.001 0.024 0.029±0.560 0.042 0.093±0.324 0.009 0.073±0.344 0.562 0.095±0.112 0.140 0.084 Ensemble Based LODA iForest 0.066±0.070 0.006 0.087±0.236 0.006 0.057±0.187 0.011 0.049±0.001 0.024 0.029±0.560 0.042 0.093±0.324 0.009 0.073±0.344 0.562 0.095±0.112 0.140 0.084 0.29
0.246 Table 5: Degree of fairness comparison of 18 algorithms on 8 benchmarks by 𝐹𝑅𝑎𝑛𝑘 Neural Networks 0.246 表5:frankニューラルネットワークによる8ベンチマークにおける18アルゴリズムの公平度比較 0.74
Proximity Based COR 0.206 0.030 0.669 0.112 0.255 0.091 0.014 0.047 0.276 確率ベース COR 0.206 0.030 0.669 0.112 0.255 0.091 0.014 0.047 0.276 0.46
AE 0.007 0.023 0.012 0.010 0.014 0.003 0.483 0.185 0.292 AE 0.007 0.023 0.012 0.010 0.014 0.003 0.483 0.185 0.292 0.45
VAE 0.009 0.023 0.013 0.010 0.015 0.003 0.483 0.185 0.279 VAE 0.009 0.023 0.013 0.010 0.015 0.003 0.483 0.185 0.279 0.45
RDP 0.010±0.005 0.016±0.011 0.003±0.001 0.002±0.000 0.016±0.002 0.005±0.002 0.001±0.000 0.000±0.000 RDP 0.010±0.005 0.016±0.011 0.003±0.001 0.002±0.000 0.016±0.002 0.005±0.002 0.001±0.000 0.000±0.000 0.52
0.325 Ours DCOD 0.011±0.011 0.013±0.012 0.008±0.007 0.001±0.000 0.048±0.018 0.008±0.006 0.001±0.000 0.000±0.000 0.325 我々の DCOD 0.011±0.011 0.013±0.012 0.008±0.007 0.001±0.000 0.048±0.018 0.008±0.006 0.001±0.000 0.000±0.000 0.46
0.346 DCFOD 0.007±0.003 0.011±0.010 0.005±0.003 0.001±0.000 0.044±0.022 0.008±0.008 0.001±0.000 0.000±0.000 0.346 DCFOD 0.007±0.003 0.011±0.010 0.005±0.003 0.001±0.000 0.044±0.022 0.008±0.008 0.001±0.000 0.000±0.000 0.40
0.442 Figure 3: Weight and score trends of inliers and outliers during iterations on asd and german. 0.442 図3: asd と German の反復中の inlier とoutlier の重み付けとスコア付けの傾向。 0.65
(a) asd (b) german (a) asd (b)ドイツ語 0.88
FABOD achieve 0.589 on german. FABODはドイツ語で0.589を達成する。 0.53
Although these algorithms are hardly considered state-of-the-art, they are still effective in some scenarios. これらのアルゴリズムは最先端と見なされることはほとんどないが、一部のシナリオでは有効である。 0.47
FairOD gets a 0.605 on adult, which shows its fairness adaptation can also bring high detection accuracy in certain cases. FairODは成人で0.605で、フェアネス適応は特定のケースで高い検出精度をもたらす可能性がある。 0.75
Our baseline method DCOD delivers two best results out of eight datasets, while our proposed DCFOD provides three best results and excels other competitive methods by a large margin on the comprehensive measurement 𝑆𝑐𝑜𝑟𝑒𝐴𝑈 𝐶. ベースライン手法DCODは8つのデータセットのうち2つの最良の結果を提供するのに対し、提案手法DCFODは3つの最良の結果を提供し、ScoreAU Cの総合的な測定に大きく貢献する。 0.70
The demonstrated superior performance on DCFOD comes from two main aspects: (1) our model adopts a well-generalized clustering based framework, which holds a strong coupling with the unsupervised outlier detection task. 1) モデルでは, 教師なしの外れ値検出タスクと強い結合性を持つ, クラスタリングベースのフレームワークを十分に一般化したフレームワークとして採用しています。 0.57
(2) The weighted representation learning is capable of generating a feature embedding that captures the unique intrinsic cluster structure for each dataset. 2)重み付き表現学習は,各データセットの固有のクラスタ構造をキャプチャする特徴埋め込みを生成することができる。 0.81
In particular, the dynamic weight module mitigates the influences from outliers’ abnormal representations and fosters a task-favorable feature space. 特に、動的重みモジュールは、外れ値の異常表現の影響を緩和し、タスクに好意的な特徴空間を育む。 0.69
For fairness measurements, DCFOD has the highest 𝑆𝑐𝑜𝑟𝑒𝐹 values on both 𝐹𝐺𝑎𝑝 and 𝐹𝑅𝑎𝑛𝑘. 公平度の測定では、DCFODはFGapとFRankでScoreF値が最も高い。 0.77
Specifically, our model delivers the best results on obesity, german, drug and kdd by 𝐹𝐺𝑎𝑝, where the adversarial training shrinks the detection validity gap between subgroups by an average of 30% compared to DCOD. 具体的には、FGapによる肥満、ドイツ、薬物、およびkddに関する最良の結果が得られ、逆行訓練により、DCODと比較して、サブグループ間の検出妥当性ギャップが平均30%減少する。 0.63
Other competitive methods, including FairLOF, OCVSM, LOF, FB, iForest, and RDP, share some best results on other datasets. fairlof、ocvsm、lof、fb、iforest、rdpといった他の競合手法は、他のデータセットで最高の結果を共有している。 0.61
Similar phenomena occurs on 𝐹𝑅𝑎𝑛𝑘, as shown in Table 5, where DCFOD achieves the most fair performance on cc, adult, and kdd. 同様の現象は FRank で発生し、表5ではDCFOD がcc、アダルト、kdd でもっとも公正なパフォーマンスを達成している。 0.69
On the rest datasets, the adversarial training also generates a fairer subgroup distribution compared to DCOD and improves 𝐹𝑅𝑎𝑛𝑘 by an average of 10%. 残りのデータセットでは、逆行訓練はDCODと比較してより公平なサブグループ分布も生成し、FRankを平均10%改善する。 0.74
We then discuss FairLOF and FairOD, two recently proposed fair outlier detectors. 次に、FairLOFとFairODという、最近提案された2つの公正な外れ値検出器について論じる。 0.42
They set out to sacrifice certain degrees of detection validity in exchange for more fairness compared to their base methods LOF and autoencoder, which has been demonstrated in our experiment. また,本実験で実証されたLOF法やオートエンコーダ法と比較して,より公平な検出精度を犠牲にすることを試みた。
訳抜け防止モード: 彼らはある種の検出の妥当性を犠牲にした 基本メソッド LOF と比較して 公平さが増すことと引き換えに 実験で実証されたオートエンコーダは
0.74
Compared to LOF, FairLOF has a lower AUC with improved degrees of fairness on both 𝐹𝐺𝑎𝑝 and 𝐹𝑅𝑎𝑛𝑘, while FairOD has a slightly lower AUC score compared to that of AE, with a similar 𝐹𝑅𝑎𝑛𝑘 and improved 𝐹𝐺𝑎𝑝. LOFと比較すると、FairLOFはFGapとFRankの両方でAUCが低いが、FairODはAEに比べてAUCのスコアがやや低い。
訳抜け防止モード: LOFと比較してFairLOFはAUCが低く、FGapとFRankの両方でフェアネスが向上している。 一方FairODはAEよりもAUCスコアがやや低い。 同様のFRankとFGapを改良した。
0.74
The above models both (a) AUC 上記の両モデル (a)AUC 0.72
(b) 𝐹𝐺𝑎𝑝 Figure 4: Effectiveness of weight adjustment on AUC and fairness measurement 𝐹𝐺𝑎𝑝. (b)FGap 図4:aucおよびfairness測定fgapにおける重量調整の有効性 0.81
apply a post-processing technique that seeks a consistent outlier ranking with a baseline detector, whose capacity might restrict the fair model from pursuing a higher detection accuracy. ベースライン検出器と一貫したアウトリーランキングを求める後処理技術を適用し、その能力はフェアモデルがより高い検出精度を追求することを制限する可能性がある。 0.71
In contrast, DCFOD adopts a baseline-free, in-processing procedure to learn a fair feature representation where the detection accuracy is simultaneously optimizable. 対照的に、DCFODはベースラインなしのインプロセッシング手順を採用し、検出精度を同時に最適化可能な公正な特徴表現を学習する。
訳抜け防止モード: 対照的にDCFODはベースライン--free, in-処理手順を採用する 検出精度を同時に最適化可能な公正な特徴表現を学習する。
0.71
As shown in Table 3, the fairnessadapted DCFOD surpasses DCOD on 𝐴𝑈𝐶, which demonstrates that the goals of accurate diagnosis and fairness adaptation may be beneficial to each other in a proper feature space. 表3に示すように、フェアネス適応DCFODはAUC上のDCODを上回り、適切な特徴空間において正確な診断とフェアネス適応の目標が互いに有益であることを示す。 0.76
Based on the above illustrations, with the representation learning framework and fairness-adversarial training, the legitimacy of DCFOD’s superior performance on both the detection validity and group fairness is well demonstrated. 上記の図式に基づいて,表現学習フレームワークとフェアネス・アドバイザリトレーニングを用いて,検出妥当性とグループフェアネスの両面において,DCFODの優れた性能の正当性を示す。 0.75
We compare the execution time of all methods in Figure 2. 図2のすべてのメソッドの実行時間を比較します。 0.85
On datasets with less than 50,000 instances, all algorithms except COF have fast performances. 50,000インスタンス未満のデータセットでは、COF以外のアルゴリズムはすべて高速なパフォーマンスを持つ。 0.67
Several maintain a low running time across all datasets, shown at the bottom lines in the figure. 図のボトムラインに示すように、データセット全体の実行時間を低く維持するものもある。 0.76
As sample size increases, FairLOF and COF encounter an out-of-memory error, and several other methods dramatically increase their running time. サンプルサイズが大きくなると、FairLOFとCOFはメモリ外エラーに遭遇し、他のいくつかのメソッドが実行時間を劇的に向上する。
訳抜け防止モード: サンプルサイズが大きくなると、FairLOFとCOFはメモリエラーに遭遇する。 ランニングタイムを劇的に増やす方法もあります
0.71
Meanwhile, DCFOD remains stable and keeps a flat increase rate due to its linear time complexity to the sample size 𝑁 and parameters 𝐷, 𝐾. 一方、DCFODは安定であり、サンプルサイズNとパラメータD,Kとの線形時間複雑さにより、平坦な増加率を維持している。 0.76
英語(論文から抽出)日本語訳スコア
(a) student (b) asd (a)学生 (b) asd 0.83
(c) obesity (d) drug (c)肥満 (d)薬品 0.71
Figure 5: Hyperparameter analysis for 𝛼 and 𝛽. 図5: α と β のハイパーパラメータ解析。 0.84
(a) & (b) The trends of AUC and 𝐹𝐺𝑎𝑝 on student and asd, while 𝛼 ranging from [2, 4, 6, 8, 10, 15, 20, 25, 30, 35, 40, 45, 50] and 𝛽 pinned at 100. (a)&(b)学生およびasdにおけるaucおよびfgapの動向は, [2, 4, 6, 8, 10, 20, 20, 20, 20, 30, 35, 40, 45, 50] およびβが100ピンとしていた。 0.73
(c) & (d) Pareto diagram of AUC and 𝐹𝐺𝑎𝑝 for all competitive methods on obesity and drug. (c)および(d)肥満と薬物のあらゆる競争方法のためのAUCおよびFGapのパレート図。 0.76
𝛽 ranges from [0, 1, 10, 20, 50, 80, 100, 150, 200, 250, 300], while 𝛼 pinned at 8. βは[0, 1, 10, 20, 50, 80, 100, 150, 200, 250, 300], αは8。 0.66
Points with 𝛽 = 0 and 𝛽 = 100 are annotated with arrows, which are the model w/o adversarial training and the pareto front, respectively. β = 0 と β = 100 の点は矢印でアノテートされ、それぞれモデル w/o の敵の訓練とパレートの前線である。 0.74
5.3 Factor Exploration We hereby explore the impact of critical factors in DCFOD. 5.3 因子探索 ここでは,DCFODにおける臨界因子の影響について検討する。 0.60
We look into the weight module for its quantitative effects on model training and performance, then test model volatility on hyperparameters. モデルトレーニングとパフォーマンスに定量的に影響を及ぼすウェイトモジュールを調べ、ハイパーパラメータのモデルボラティリティをテストする。 0.72
We use 𝐴𝑈𝐶 and 𝐹𝐺𝑎𝑝 performance for visualization due to the space limitation. 空間制限による可視化にはAUCとFGapの性能を用いる。 0.76
Weight and Outlier Score. 体重とアウトリアーのスコア。 0.57
The proposed DCFOD model assigns a dynamic weight for each instance during training. 提案したDCFODモデルは、トレーニング中に各インスタンスに動的重みを割り当てる。 0.78
The likelyoutlier candidates that are far away from the cluster centroids have higher outlier scores while assigned with lower weights. クラスタ・セントロイドから遠く離れている可能性の高い外乱候補は、低い重みを割り当てながら高い外乱スコアを持つ。 0.57
With this approach, we alleviate outliers’ disturbance toward the overall cluster structure and improve the model performance. このアプローチにより、全体のクラスタ構造に対するアウトレーヤの障害を緩和し、モデル性能を改善する。 0.80
Figure 3 shows the dynamic relationship between outlier scores and weight adjustments on asd and german. 図3は、asdとドイツ語のアウトリアースコアと体重調整のダイナミックな関係を示しています。 0.62
For each dataset, we choose three inliers and two outliers for demonstration, where consistent trends are exhibited. 各データセットに対して,一貫性のある傾向を示す3つのインレーヤと2つのアウトレーヤを選択します。 0.53
After several iterations, the weights and scores stabilize into two distinct groups. 数回のイテレーションの後、重みとスコアは2つの異なるグループに安定する。 0.64
For outliers, scores converge to high values, and weights go to the lowest value of 0.008, while inliers have more dominant weights at around 0.02 and low outlier scores. 外れ値については、スコアは高い値に収束し、ウェイトは0.008の最低値に、イリヤは0.02と低い外れ値でより支配的な重みを持つ。 0.53
The demonstration uses a minibatch of size 64, where one data point’s original contribution is 1/64 ≈ 0.016. デモではサイズ64のミニバッチを使用し、1つのデータポイントのオリジナルコントリビューションが1/64 0.016である。 0.64
Our adaptive weight module reinforces inliers’ contributions by approximately 25% and decreases that of outliers by 50%, respectively. 我々の適応重みモジュールは、インリアーの寄与を約25%強化し、それぞれインリアーの寄与を50%減少させる。 0.60
Figure 6: Performance of DCFOD with different cluster numbers on asd, cc and kdd by 𝐴𝑈𝐶 and 𝐹𝐺𝑎𝑝. 図6: AUCとFGapによるasd、cc、kdd上の異なるクラスタ番号を持つDCFODのパフォーマンス。 0.77
results that are both fair and of high detection validity under varying 𝛽, compared to all other competitive methods. 他の全ての競合方法と比較して、β の値が一定であり、かつ高い検出正当性を持つ結果。
訳抜け防止モード: 異なるβ条件下での公正かつ高い検出妥当性を示す結果 他のあらゆる競争方法と比較する。
0.75
𝛽 = 100 takes the pareto front on both datasets, with clear improvements on fairness degree 𝐹𝐺𝑎𝑝 compared to 𝛽 = 0 (w/o adversarial training). β = 100 は両データセットで pareto の先頭に立ち、フェアネス次数 fgap は β = 0 (w/o 敵対的トレーニング) と比較して明らかに改善されている。 0.67
Figure 4 compares AUC and 𝐹𝐺𝑎𝑝 on all datasets with respect to the weight module’s presence, whose beneficial effects towards both the detection validity and fairness degree are clearly exhibited. 図4は、重みモジュールの存在に関して、すべてのデータセットでaucとfgapを比較します。
訳抜け防止モード: 図4は、重みモジュールの存在について、すべてのデータセットでAUCとFGapを比較します。 検出妥当性と公正度の両方に有益な効果が明らかに示されています
0.66
Particularly, the weight module brings an average of 46% increase in AUC on student, asd, and kdd datasets, while decreasing the detection validity gap between subgroups by an average of 55% on student, german, and drug. 特に、重みモジュールは、学生、asd、kddデータセットにおいて平均46%のAUC増加をもたらし、一方、学生、ドイツ人、薬物では平均55%の差でサブグループ間の検出妥当性のギャップを減らしている。 0.71
The weight module’s enhancement in outlier validation invariably applies to all subgroups, thus closing their validity gaps and making the model fairer. 重み加群による外れ値検証の強化は、常にすべての部分群に適用され、その妥当性ギャップを閉じ、モデルをより公平にする。 0.51
Hyperparameter Analysis. ハイパーパラメータ解析。 0.76
In our objective function, 𝛼 and 𝛽 govern the balance between the self-reconstruction loss and fairnessadversarial loss. 目的関数において、αとβは自己再構成損失とフェアネスアドバサリー損失のバランスを制御する。 0.71
We hereby explore the volatility of the model with respect to changes on hyperparameters and verify the legitimacy of the default values (i.e., 𝛼 = 8, 𝛽 = 100). ここでは、ハイパーパラメータの変化に関するモデルのボラティリティを探求し、デフォルト値(α = 8, β = 100)の正当性を検証する。 0.68
As shown in Figure 5(a) and 5(b), the model reaches the best combination between 𝐴𝑈𝐶 and 𝐹𝐺𝑎𝑝 when 𝛼 = 8. 図5(a) と 5(b) に示すように、α = 8 のとき、モデルは AUC と FGap の最良の組み合わせに達する。 0.83
As 𝛼 further increases, detection validity decreases and the subgroup validity gap subsequently enlarges. αがさらに増加すると検出妥当性が低下し、サブグループ妥当性ギャップが増大する。 0.66
Figure 5(c) and 5(d) are the pareto diagrams of 𝐴𝑈𝐶 and 𝐹𝐺𝑎𝑝 on dataset obesity and drug. 図5(c)および5(d)は、データセット肥満および薬物に関するaucおよびfgapのパレート図である。 0.79
DCFOD is observed to consistently yield DCFODは一貫して収まる 0.59
(a) AUC (b) 𝐹𝐺𝑎𝑝 (a)AUC (b)FGap 0.75
Another hyperparameter in our model is the number of clusters 𝐾. 我々のモデルにおけるもう1つのハイパーパラメータはクラスタ数 K である。 0.66
In a typical Clustering based algorithm, it is set as the number of classes. 典型的なクラスタリングベースのアルゴリズムでは、クラス数として設定される。 0.86
However, in real-world unsupervised outlier detection tasks, we are often not provided with the actual number of classes. しかし、実世界の教師なしの異常検出タスクでは、しばしば実際のクラス数を提供できない。 0.66
In our experiment, we uniformly set the number of clusters 𝐾 = 10 for all datasets. 実験では,全データセットに対してクラスタ数K = 10を均一に設定した。 0.81
Figure 6 shows the 𝐴𝑈𝐶 and 𝐹𝐺𝑎𝑝 on cc, kdd, and asd with different cluster numbers. 図6は、cc、kdd、asdのaucとfgapのクラスタ番号を示しています。 0.72
The consistent performance shows that our DCFOD is not sensitive to the cluster number. 一貫性のある性能は、DCFODがクラスタ番号に敏感でないことを示している。 0.63
6 CONCLUSION We studied the fairness issues in the task of unsupervised outlier detection. 6 ConCLUSION 我々は,教師なし外乱検出作業における公平性について検討した。 0.57
We proposed a Deep Clustering based Fair Outlier Detection framework that conducts downstream task-favorable representation learning with adversarial training to optimize the detection validity concurrently with group fairness. グループフェアネスと並行して検出妥当性を最適化するために,下流のタスクファバーリブル表現学習を行う,深層クラスタリングに基づくフェアリアー検出フレームワークを提案する。 0.74
Specifically, we designed an adaptive weight module to administer model training by reinforcing the likely-inliers’ contributions while alleviating the outliers’ negative effects. 具体的には,降圧器の負の効果を緩和しつつ,降圧器の寄与を補強し,モデルトレーニングを適応的に行うための重みモジュールを設計した。 0.54
We extended the existing fairness evaluative criteria in the context of outlier detection and proposed two metrics regarding group-wise diagnostic accuracy gap and subgroup distribution among likely-outliers. 既存のフェアネス評価基準を,アウトラヤ検出の文脈で拡張し,グループワイド診断精度ギャップとサブグループ分布に関する2つの指標を提案した。 0.73
Experiments showcased our model’s superiority over the recent fair models and conventional outlier detection methods in both outlier validation and degree of fairness. 実験では,最近のfairモデルと従来型の異常検出法と比較して,異常検証と公平度の両方において,モデルの優越性が示された。 0.57
7 ACKNOWLEDGMENT This work was supported in part by NSF OAC 1920147. 7 ACKNOWLEDGMENT NSF OAC 1920147によって部分的にサポートされた。 0.75
英語(論文から抽出)日本語訳スコア
REFERENCES [1] Jinwon An and Sungzoon Cho. 参照 [1]仁ウォン・アン・ソングズン・チョー。 0.44
2015. Variational autoencoder based anomaly detection using reconstruction probability. 2015. リコンストラクション確率を用いた変分オートエンコーダに基づく異常検出 0.79
Special Lecture on IE 2 (2015), 1–18. IE 2 (2015), 1–18 の特別講演。 0.79
[2] Markus M Breunig, Hans-Peter Kriegel, Raymond T Ng, and Jörg Sander. ^ Markus M Breunig, Hans-Peter Kriegel, Raymond T Ng, Jörg Sander 0.67
2000. LOF: identifying density-based local outliers. 2000. LOF: 密度に基づく局所的な外れ値の識別。 0.73
In Proceedings of the 2000 ACM SIGMOD international conference on Management of data. 2000年 acm sigmod international conference on management of data 開催。 0.60
93–104. [3] Simon Caton and Christian Haas. 93–104. サイモン・ケイトンとクリスチャン・ハース。 0.58
2020. Fairness in Machine Learning: A Survey. 2020. 機械学習における公平性: 調査。 0.81
arXiv preprint arXiv:2010.04053 (2020). arXiv preprint arXiv:2010.04053 (2020)。 0.75
[4] Sanjay Chawla and Aristides Gionis. [4]Sanjay ChawlaとAristides Gionis。 0.78
2013. k-means–: A unified approach to clustering and outlier detection. 2013年 - k-means - クラスタリングと異常検出の統一アプローチ。 0.74
In Proceedings of the 2013 SIAM International Conference on Data Mining. 2013 SIAM International Conference on Data Mining に参加して 0.71
SIAM, 189–197. [5] Jinghui Chen, Saket Sathe, Charu Aggarwal, and Deepak Turaga. 189-197頁。 [5]ジンホイ・チェン、サケ・サーテ、Charu Aggarwal、Deepak Turaga。 0.64
2017. Outlier detection with autoencoder ensembles. 2017. オートエンコーダアンサンブルによる異常検出 0.73
In Proceedings of the 2017 SIAM international conference on data mining. 2017年のSIAM国際データマイニング会議の開催。 0.60
SIAM, 90–98. SIAM 90-98。 0.80
[6] Silvia Chiappa. [6]Silvia Chiappa。 0.71
2019. Path-specific counterfactual fairness. 2019. パス固有の対物フェアネス。 0.59
In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 訴訟の手続において AAAI Conference on Artificial Intelligence, Vol. (英語) 0.66
33. 7801–7808. 33. 7801–7808. 0.78
[7] Alexandra Chouldechova and Aaron Roth. 7] アレクサンドラ・チョルデコワとアーロン・ロス 0.48
2018. The frontiers of fairness in 2018. フェアネスのフロンティア 0.55
machine learning. arXiv preprint arXiv:1810.08810 (2018). 機械学習。 arXiv preprint arXiv:1810.08810 (2018)。 0.75
[8] Ian Davidson and Selvan Suntiha Ravi. Ian Davidson氏とSelvan Suntiha Ravi氏。 0.58
2020. A framework for determining the fairness of outlier detection. 2020. 外乱検出の公平性を決定するためのフレームワーク。 0.77
In Proceedings of the 24th European Conference on Artificial Intelligence (ECAI2020), Vol. 第24回欧州人工知能会議(ECAI2020)に参加して 0.59
2029. [9] P Deepak and Savitha Sam Abraham. 2029. 9]P DeepakとSavitha Sam Abraham。 0.78
2020. Fair Outlier Detection. 2020. 異常な異常検出。 0.63
In International Conference on Web Information Systems Engineering. 海外では Web Information Systems Engineering の略。 0.63
Springer, 447–462. [10] Cynthia Dwork, Moritz Hardt, Toniann Pitassi, Omer Reingold, and Richard Zemel. 447-462頁。 Cynthia Dwork氏、Moritz Hardt氏、Toniann Pitassi氏、Omer Reingold氏、Richard Zemel氏。 0.64
2012. Fairness through awareness. 2012. 意識を通じて公平である。 0.65
In Proceedings of the 3rd innovations in theoretical computer science conference. Proceedings of the 3rd Innovations in theoretical computer science conference (英語) 0.84
214–226. [11] Harrison Edwards and Amos Storkey. 214–226. 11]ハリソン・エドワーズと エイモス・ストーキー 0.65
2015. Censoring representations with an 2015. anで表現を検閲する 0.72
adversary. arXiv preprint arXiv:1511.05897 (2015). 敵対者。 arXiv preprint arXiv:1511.05897 (2015) 0.71
[12] CNN Business Evelina Nedlund. CNN Business Evelina Nedlund] 0.50
2019. Apple Card is accused of gender bias. 2019. apple cardは性別バイアスで訴えられている。 0.76
Here’s how that can happen. こうなるかもしれない。 0.51
https://www.cnn.com/ 2019/11/12/business/ apple-cardgender-bia s/index.html https://www.cnn.com/ 2019/11/12/business/ apple-cardgender-bia s/index.html 0.17
[13] Michael Feldman, Sorelle A Friedler, John Moeller, Carlos Scheidegger, and Suresh Venkatasubramanian. Michael Feldman氏、Sorelle A Friedler氏、John Moeller氏、Carlos Scheidegger氏、Suresh Venkatasubramanian氏。 0.67
2015. Certifying and removing disparate impact. 2015. 異なる影響の認定と除去。 0.74
In proceedings of the 21th ACM SIGKDD international conference on knowledge discovery and data mining. 第21回ACM SIGKDD国際会議における知識発見とデータマイニングの手続き 0.72
259–268. [14] Xavier Glorot and Yoshua Bengio. 259–268. 14]ザビエル・グロロットとヨシュア・ベンジオ。 0.64
2010. Understanding the difficulty of training deep feedforward neural networks. 2010. ディープフィードフォワードニューラルネットワークの訓練の難しさを理解する。 0.77
Journal of Machine Learning Research 9 (2010), 249–256. Journal of Machine Learning Research 9 (2010), 249–256。 0.87
[15] Markus Goldstein and Andreas Dengel. 15] マーカス・ゴールドスタインとアンドレアス・デンゲル 0.40
2012. Histogram-based outlier score (hbos): A fast unsupervised anomaly detection algorithm. 2012. Histogram-based outlier score (hbos):高速な教師なし異常検出アルゴリズム。 0.83
KI-2012: Poster and Demo Track (2012), 59–63. KI-2012: Poster and Demo Track (2012), 59-63。 0.86
[16] Tatsunori B Hashimoto, Megha Srivastava, Hongseok Namkoong, and Percy Liang. [16]橋本辰則、メガ・スリヴァスタヴァ、ホンソク・ナムコン、パーシー・リアン 0.35
2018. Fairness without demographics in repeated loss minimization. 2018. 繰り返し損失最小化における人口統計の欠如 0.75
arXiv preprint arXiv:1806.08010 (2018). arXiv preprint arXiv:1806.08010 (2018)。 0.77
[17] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. [17]開明、Xiangyu Zhang、Shaoqing Ren、Jian Sun。 0.53
2016. Deep residual learning for image recognition. 2016. 画像認識のための深い残差学習 0.83
In Proceedings of the IEEE conference on computer vision and pattern recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition 0.75
770–778. [18] Zengyou He, Xiaofei Xu, and Shengchun Deng. 770–778. [18]善行、Xiaofei Xu、Sengchun Deng。 0.62
2003. Discovering Cluster Based 2003. クラスタベースの発見 0.81
Local Outliers. Pattern Recognition Letters 24 (2003), 1641–1650. 地方外。 パターン認識文字 24 (2003), 1641–1650。 0.64
[19] Ramakrishnan Kannan, Hyenkyun Woo, Charu C Aggarwal, and Haesun Park. [19]ラマクリシュナン・カンナン、ヒエンギュン・ウー、Charu C Aggarwal、Haesun Park。 0.47
2017. Outlier detection for text data. 2017. テキストデータの異常検出。 0.73
In Proceedings of the 2017 siam international conference on data mining. 2017年、データマイニングに関する国際会議「Proceedings of the 2017」に参加。 0.61
SIAM, 489–497. SIAM 489-497。 0.86
[20] Michael Kearns, Seth Neel, Aaron Roth, and Zhiwei Steven Wu. Michael Kearns氏、Seth Neel氏、Aaron Roth氏、Zhiwei Steven Wu氏。 0.71
2018. Preventing fairness gerrymandering: Auditing and learning for subgroup fairness. 2018. フェアネスの防止 gerrymandering: サブグループフェアネスの監査と学習。 0.76
In International Conference on Machine Learning. 機械学習に関する国際会議に参加。 0.80
PMLR, 2564–2572. PMLR 2564-2572。 0.74
[21] Michael Kearns, Seth Neel, Aaron Roth, and Zhiwei Steven Wu. Michael Kearns氏、Seth Neel氏、Aaron Roth氏、Zhiwei Steven Wu氏。 0.70
2019. An empirical study of rich subgroup fairness for machine learning. 2019. 機械学習のためのリッチサブグループフェアネスの実証的研究 0.70
In Proceedings of the Conference on Fairness, Accountability, and Transparency. 公正・説明責任・透明性に関する会議の開催にあたって 0.66
100–109. [22] Diederik P Kingma and Max Welling. 100–109. [22]Diederik P KingmaとMax Welling。 0.73
2013. Auto-encoding variational bayes. 2013. 自動エンコーディング変分ベイズ。 0.76
arXiv preprint arXiv:1312.6114 (2013). arXiv preprint arXiv:1312.6114 (2013)。 0.76
[23] Jon Kleinberg, Sendhil Mullainathan, and Manish Raghavan. John Kleinberg氏、Sendhil Mullainathan氏、Manish Raghavan氏。 0.56
2016. Inherent trade-offs in the fair determination of risk scores. 2016. リスクスコアの公平な決定に固有のトレードオフ。 0.66
arXiv preprint arXiv:1609.05807 (2016). arXiv preprint arXiv:1609.05807 (2016)。 0.77
[24] Hans-Peter Kriegel, Peer Kröger, Erich Schubert, and Arthur Zimek. He24] Hans-Peter Kriegel, Peer Kröger, Erich Schubert, Arthur Zimek。 0.80
2009. Outlier detection in axis-parallel subspaces of high dimensional data. 2009. 高次元データの軸並列部分空間における外乱検出 0.82
In Pacific-asia conference on knowledge discovery and data mining. the pacific-asia conference on knowledge discovery and data mining(英語) 0.71
Springer, 831–838. スプリンガー、831-838。 0.56
[25] Hans-Peter Kriegel, Matthias Schubert, and Arthur Zimek. 25]hans-peter kriegel、matthias schubert、arthur zimek。 0.49
2008. Angle-based outlier detection in high-dimensional data. 2008. 高次元データにおける角度ベース外乱検出 0.78
In Proceedings of the 14th ACM SIGKDD international conference on Knowledge discovery and data mining. 第14回ACM SIGKDD国際会議「知識発見とデータマイニング」の開催報告 0.69
444–452. [26] Alex Krizhevsky, Ilya Sutskever, and Geoffrey Hinton. 444–452. Alex Krizhevsky氏、Ilya Sutskever氏、Geoffrey Hinton氏。 0.65
2017. Imagenet classification with deep convolutional neural networks. 2017. 深部畳み込みニューラルネットワークを用いた画像ネット分類 0.84
Commun. ACM 60 (2017), 84–90. Commun ACM 60 (2017), 84-90。 0.68
[27] Matt J Kusner, Joshua R Loftus, Chris Russell, and Ricardo Silva. Matt J Kusner氏、Joshua R Loftus氏、Chris Russell氏、Ricardo Silva氏。 0.66
2017. Counter- 2017. カウンター 0.71
factual fairness. arXiv preprint arXiv:1703.06856 (2017). 事実の公平さ arXiv preprint arXiv:1703.06856 (2017) 0.73
[28] Aleksandar Lazarevic and Vipin Kumar. [28]アレクサンダル・ラザレヴィチとヴィピン・クマール。 0.44
2005. Feature bagging for outlier detection. 2005. 異常検出のための機能バッジ。 0.74
In Proceedings of the eleventh ACM SIGKDD international conference on Knowledge discovery in data mining. 第11回 acm sigkdd international conference on knowledge discovery in data mining 参加報告 0.63
157–166. [29] Dan Li, Dacheng Chen, Jonathan Goh, and See-Kiong Ng. 157–166. [29]Dan Li、Dacheng Chen、Jonathan Goh、See-Kiong Ng。 0.73
2018. Anomaly detection with generative adversarial networks for multivariate time series. 2018. 多変量時系列生成型逆ネットワークによる異常検出 0.77
arXiv preprint arXiv:1809.04758 (2018). arXiv preprint arXiv:1809.04758 (2018)。 0.76
[30] Peizhao Li, Zhengming Ding, and Hongfu Liu. [30]Peishao Li、Zhengming Ding、およびHongfu Liu。 0.73
2020. Mining Label Distribution Drift in Unsupervised Domain Adaptation. 2020. 教師なし領域適応におけるマイニングラベル分布のドリフト 0.74
arXiv preprint arXiv:2006.09565 (2020). arXiv preprint arXiv:2006.09565 (2020)。 0.76
[31] Peizhao Li, Yifei Wang, Han Zhao, Pengyu Hong, and Hongfu Liu. [31]Peishao Li、Yifei Wang、Han Zhao、Pengyu Hong、Hongfu Liu。 0.65
2021. On dyadic fairness: Exploring and mitigating bias in graph connections. 2021. dyadic fairness: グラフ接続におけるバイアスの探索と緩和。 0.84
In Proceedings of International Conference on Learning Representations. 学習表現に関する国際会議の開催にあたって 0.78
[32] Peizhao Li, Han Zhao, and Hongfu Liu. [32]Peishao Li、Han Zhao、Hongfu Liu。 0.62
2020. Deep fair clustering for visual learning. 2020. ビジュアル学習のためのディープフェアクラスタリング。 0.75
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. IEEE/CVF Conference on Computer Vision and Pattern Recognition に参加して 0.82
9070–9079. 9070–9079. 0.71
[33] Zheng Li, Yue Zhao, Nicola Botta, Cezar Ionescu, and Xiyang Hu. [33]Zheng Li、Yue Zhao、Nicola Botta、Cezar Ionescu、Xiyang Hu。 0.57
2020. COPOD: 2020. COPOD 0.65
copula-based outlier detection. copulaベースのoutlier検出。 0.64
arXiv preprint arXiv:2009.09463 (2020). arXiv preprint arXiv:2009.09463 (2020)。 0.75
[34] Fei Tony Liu, Kai Ming Ting, and Zhi-Hua Zhou. [34]Fei Tony Liu、Kai Ming Ting、Zhi-Hua Zhou。 0.74
2008. Isolation forest. 2008. 孤立林。 0.73
In 2008 eighth ieee international conference on data mining. 2008年 第8回ieee国際データマイニング会議参加報告 0.76
IEEE, 413–422. IEEE 413-422。 0.76
[35] Hongfu Liu, Jun Li, Yue Wu, and Yun Fu. [35]ホンフ・リウ、ユン・リー、ユエ・ウー、ユンフー。 0.50
2019. Clustering with outlier removal. 2019. 異常除去によるクラスタリング。 0.78
IEEE transactions on knowledge and data engineering (2019). ieee transactions on knowledge and data engineering (2019)を参照。 0.77
[36] Hongfu Liu, Yuchao Zhang, Bo Deng, and Yun Fu. [36]本府りゅう、ゆちゃお張、ぼうでん、ゆんふ。 0.52
2016. Outlier detection via sampling ensemble. 2016. サンプリングアンサンブルによる異常検出。 0.71
In 2016 IEEE International Conference on Big Data (Big Data). 2016年、ieee international conference on big data (big data) を開催。 0.81
IEEE, 726–735. IEEE 726-735。 0.75
[37] Wen Liu, Weixin Luo, Dongze Lian, and Shenghua Gao. [37]Wen Liu、Weixin Luo、Dongze Lian、およびShenghua Gao。 0.73
2018. Future frame prediction for anomaly detection–a new baseline. 2018. 異常検出のための将来のフレーム予測 -新しいベースライン- 0.79
In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. IEEE Conference on Computer Vision and Pattern Recognition に参加して 0.70
6536–6545. 6536–6545. 0.71
[38] Pranay K Lohia, Karthikeyan Natesan Ramamurthy, Manish Bhide, Diptikalyan Saha, Kush R Varshney, and Ruchir Puri. 38] pranay k lohia, karthikeyan natesan ramamurthy, manish bhide, diptikalyan saha, kush r varshney, ruchir puri。
訳抜け防止モード: [38 ]Pranay K Lohia, Karthikeyan Natesan Ramamurthy, Manish Bhide, Diptikalyan Saha、Kush R Varshney、Ruchir Puri。
0.71
2019. Bias mitigation post-processing for individual and group fairness. 2019. 個人とグループフェアネスのためのバイアス緩和後処理。 0.69
In Icassp 2019-2019 ieee international conference on acoustics, speech and signal processing (icassp). icassp 2019-2019で、ieee international conference on acoustics, speech and signal processing (icassp) が開催された。 0.69
IEEE, 2847–2851. IEEE 2847-2851。 0.79
[39] David Madras, Elliot Creager, Toniann Pitassi, and Richard Zemel. David Madras氏、Elliot Creager氏、Toniann Pitassi氏、Richard Zemel氏。 0.63
2018. Learning adversarially fair and transferable representations. 2018. 逆向きに公平で伝達可能な表現を学習する。 0.61
In International Conference on Machine Learning. 機械学習に関する国際会議に参加。 0.80
PMLR, 3384–3393. PMLR 3384-3393。 0.75
[40] BBC NEWS. BBC NEWS. [40] BBC NEWS. 0.73
2020. Facial recognition to ’predict criminals’ sparks row over AI bias. 2020. 犯罪を予言する顔の認識は、AIの偏見を揺るがす。 0.74
https://www.bbc.com/ news/technology-5316 5286 https://www.bbc.com/ news/technology-5316 5286 0.29
[41] Guansong Pang, Longbing Cao, and Ling Chen. [41]広東pang、Longbing Cao、Ling Chen。 0.58
2016. Outlier detection in complex categorical data by modelling the feature value couplings. 2016. 特徴値結合のモデル化による複雑な分類データの異常検出 0.83
In International Joint Conference on Artificial Intelligence. 人工知能に関する国際会議に参加。 0.72
[42] Guansong Pang, Chunhua Shen, Longbing Cao, and Anton Van Den Hengel. [42]Guansong Pang、Chunhua Shen、Longbing Cao、Anton Van Den Hengel。 0.63
2021. Deep learning for anomaly detection: A review. 2021. 異常検出のためのディープラーニング:レビュー。 0.75
Comput. Surveys 54 (2021), 1–38. Comput 54 (2021), 1-38。 0.57
[43] Tomáš Pevn`y. [43]Tomáš Pevn`y。 0.77
2016. Loda: Lightweight on-line detector of anomalies. 2016. Loda: 異常の軽量オンライン検出器。 0.78
Machine Learning 102, 2 (2016), 275–304. 機械 102, 2 (2016), 275–304 を学習。 0.83
[44] Bernhard Schölkopf, John Platt, John Shawe-Taylor, Alexander Smola, and Robert Williamson. 44] Bernhard Schölkopf, John Platt, John Shawe-Taylor, Alexander Smola, Robert Williamson。 0.80
2001. Estimating Support of a High-Dimensional Distribution. 2001. 高次元分布の支持推定 0.72
Neural Computation 13 (2001), 1443–1471. Neural Computation 13 (2001), 1443–1471。 0.87
[45] David Sculley. デヴィッド・スカリー(David Sculley)。 0.65
2010. Web-scale k-means clustering. 2010. webスケールk-meansクラスタリング。 0.72
In Proceedings of the 19th 第19条の手続において 0.62
international conference on World wide web. international conference on world wide web(英語) 0.83
1177–1178. 1177–1178. 0.71
[46] Shubhranshu Shekhar, Neil Shah, and Leman Akoglu. [46]Shubhranshu Shekhar,Neil Shah,Leman Akoglu。 0.64
2020. FairOD: Fairness- 2020. FairOD: Fairness- 0.90
aware Outlier Detection. 異常検出を意識する。 0.52
arXiv preprint arXiv:2012.03063 (2020). arXiv preprint arXiv:2012.03063 (2020)。 0.76
[47] Mei-Ling Shyu, Shu-Ching Chen, Kanoksri Sarinnapakorn, and LiWu Chang. 〔47〕明リング・シュー、周チン・チェン、カノクシュリ・サリンナパコルン、リウ・チャン 0.45
2003. A novel anomaly detection scheme based on principal component classifier. 2003. 主成分分類器に基づく新しい異常検出方式 0.74
Technical Report. Miami Univ Coral Gables Fl Dept of Electrical and Computer Engineering. 技術報告。 Miami Univ Coral Gables Fl Dept of Electrical and Computer Engineering (英語) 0.77
[48] Jian Tang, Zhixiang Chen, Ada Wai-Chee Fu, and David W Cheung. [48]鑑唐、深陳、阿陀倭周、David W Cheung。 0.56
2002. Enhancing effectiveness of outlier detections for low density patterns. 2002. 低密度パターンに対する異常検出の有効性向上 0.80
In Pacific-Asia Conference on Knowledge Discovery and Data Mining. 太平洋アジアにおける知識発見とデータマイニング 0.67
Springer, 535–548. スプリンガー、535-548。 0.54
[49] Eric Tzeng, Judy Hoffman, Kate Saenko, and Trevor Darrell. Eric Tzeng氏、Judy Hoffman氏、Kate Saenko氏、Trevor Darrell氏。 0.62
2017. Adversarial discriminative domain adaptation. 2017. 敵対的差別的ドメイン適応。 0.68
In Proceedings of the IEEE conference on computer vision and pattern recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition 0.75
7167–7176. 7167–7176. 0.71
[50] Fangyi Wan, Gaodeng Guo, Chunlin Zhang, Qing Guo, and Jie Liu. [50]Fangyi Wan、Gaodeng Guo、Chunlin Zhang、Qing Guo、Jie Liu。 0.69
2019. Outlier Detection for Monitoring Data Using Stacked Autoencoder. 2019. 積み重ねオートエンコーダを用いたデータ監視のための異常検出 0.77
IEEE Access 7 (2019), 173827–173837. IEEE Access 7 (2019), 173827-173837。 0.89
[51] Hu Wang, Guansong Pang, Chunhua Shen, and Congbo Ma. [51]Hu Wang、Guansong Pang、Chunhua Shen、Congbo Ma。 0.64
2020. Unsupervised Representation Learning by Predicting Random Distances. 2020. ランダム距離予測による教師なし表現学習 0.73
In International Joint Conference on Artificial Intelligence. 人工知能に関する国際会議に参加。 0.72
[52] Junyuan Xie, Ross Girshick, and Ali Farhadi. 52]Junyuan Xie、Ross Girshick、Ali Farhadi。 0.61
2016. Unsupervised deep embedding for clustering analysis. 2016. クラスタリング解析のための教師なしディープ埋め込み 0.73
In International conference on machine learning. 機械学習に関する国際会議。 0.68
PMLR, 478–487. PMLR 478-487。 0.83
[53] Rich Zemel, Yu Wu, Kevin Swersky, Toni Pitassi, and Cynthia Dwork. Rich Zemel氏、Yu Wu氏、Kevin Swersky氏、Toni Pitassi氏、Cynthia Dwork氏。 0.64
2013. Learning fair representations. 2013. 公正な表現を学ぶ。 0.70
In International conference on machine learning. 機械学習に関する国際会議。 0.68
PMLR, 325–333. PMLR 325-333。 0.85
[54] Houssam Zenati, Chuan Sheng Foo, Bruno Lecouat, Gaurav Manek, and Vijay Ramaseshan Chandrasekhar. Houssam Zenati, Chuan Sheng Foo, Bruno Lecouat, Gaurav Manek, Vijay Ramaseshan Chandrasekhar 0.49
2018. Efficient gan-based anomaly detection. 2018. 効率的なganに基づく異常検出。 0.71
arXiv preprint arXiv:1802.06222 (2018). arXiv preprint arXiv:1802.06222 (2018)。 0.77
[55] Handong Zhao and Yun Fu. [55]Handong Zhao、Yun Fu。 0.68
2015. Dual-regularized multi-view outlier detection. 2015. dual-regularized multi-view outlier detection。 0.74
In 24th International Joint Conference on Artificial Intelligence. 第24回人工知能国際会議に参加。 0.72
[56] Yue Zhao, Zain Nasrullah, and Zheng Li. [56]Yue Zhao, Zain Nasrullah, Zheng Li 0.62
2019. PyOD: A Python Toolbox for Scalable Outlier Detection. 2019. PyOD: スケーラブルなアウトレイラ検出のためのPythonツールボックス。 0.79
Journal of Machine Learning Research 20 (2019), 1–7. Journal of Machine Learning Research 20 (2019), 1-7。 0.84
[57] Chong Zhou and Randy C Paffenroth. [57]Chong ZhouとRandy C Paffenroth。 0.76
2017. Anomaly detection with robust deep autoencoders. 2017. 頑健なディープオートエンコーダによる異常検出 0.72
In Proceedings of the 23rd ACM SIGKDD international conference on knowledge discovery and data mining. 第23回知識発見・データマイニング国際会議(acm sigkdd international conference on knowledge discovery and data mining)参加報告 0.61
665–674. 665–674. 0.71
                   ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。