論文の概要: From Discrete to Continuous: Deep Fair Clustering With Transferable Representations
- arxiv url: http://arxiv.org/abs/2403.16201v1
- Date: Sun, 24 Mar 2024 15:48:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 17:06:13.242353
- Title: From Discrete to Continuous: Deep Fair Clustering With Transferable Representations
- Title(参考訳): 離散から連続へ:転送可能な表現によるディープフェアクラスタリング
- Authors: Xiang Zhang,
- Abstract要約: 離散的かつ連続的な属性を同時に処理できるフレキシブルなディープ・フェア・クラスタリング法を提案する。
具体的には、公平でクラスタリングに優しい表現を学習するために、情報ボトルネックスタイルの客観的関数を設計する。
既存の作業とは異なり、転送されたタスクの公平性を保証するために、表現レベルに公平性を課す。
- 参考スコア(独自算出の注目度): 6.366934969620947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of deep fair clustering, which partitions data into clusters via the representations extracted by deep neural networks while hiding sensitive data attributes. To achieve fairness, existing methods present a variety of fairness-related objective functions based on the group fairness criterion. However, these works typically assume that the sensitive attributes are discrete and do not work for continuous sensitive variables, such as the proportion of the female population in an area. Besides, the potential of the representations learned from clustering tasks to improve performance on other tasks is ignored by existing works. In light of these limitations, we propose a flexible deep fair clustering method that can handle discrete and continuous sensitive attributes simultaneously. Specifically, we design an information bottleneck style objective function to learn fair and clustering-friendly representations. Furthermore, we explore for the first time the transferability of the extracted representations to other downstream tasks. Unlike existing works, we impose fairness at the representation level, which could guarantee fairness for the transferred task regardless of clustering results. To verify the effectiveness of the proposed method, we perform extensive experiments on datasets with discrete and continuous sensitive attributes, demonstrating the advantage of our method in comparison with state-of-the-art methods.
- Abstract(参考訳): 我々は、機密データ属性を隠蔽しながら、ディープニューラルネットワークによって抽出された表現を通じてデータをクラスタに分割するディープフェアクラスタリングの問題を考察する。
フェアネスを達成するために,既存手法では,グループフェアネス基準に基づく様々なフェアネス関連目的関数を提示する。
しかしながら、これらの研究は通常、感度特性は離散的であり、ある地域での女性の人口の割合のような連続的な感度変数には効かないと仮定する。
さらに、クラスタリングタスクから学んだ表現が、他のタスクのパフォーマンスを改善する可能性も、既存の作業によって無視される。
これらの制約を考慮して、離散的かつ連続的な属性を同時に処理できるフレキシブルなディープ・フェア・クラスタリング法を提案する。
具体的には、公平でクラスタリングに優しい表現を学習するために、情報ボトルネックスタイルの客観的関数を設計する。
さらに,抽出した表現を他の下流タスクに転送する可能性についても検討した。
既存の作業とは異なり、クラスタリング結果に関係なく、転送されたタスクに対して公平性を保証できる表現レベルに公平性を課す。
提案手法の有効性を検証するため,離散的かつ連続的な属性を持つデータセットに対して広範な実験を行い,最先端の手法と比較して,本手法の利点を実証した。
関連論文リスト
- Leveraging sparse and shared feature activations for disentangled
representation learning [112.22699167017471]
本稿では,教師付きタスクの多種多様な集合から抽出した知識を活用し,共通不整合表現を学習することを提案する。
我々は6つの実世界分布シフトベンチマークと異なるデータモダリティに対するアプローチを検証する。
論文 参考訳(メタデータ) (2023-04-17T01:33:24Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Conditional Supervised Contrastive Learning for Fair Text Classification [59.813422435604025]
対照的な学習を通してテキスト分類のための等化オッズとして知られる公平性の概念を満たす学習公正表現について研究する。
具体的には、まず、公正性制約のある学習表現と条件付き教師付きコントラスト目的との間の関係を理論的に分析する。
論文 参考訳(メタデータ) (2022-05-23T17:38:30Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Concurrent Discrimination and Alignment for Self-Supervised Feature
Learning [52.213140525321165]
既存の自己指導型学習手法は,(1)どの特徴が分離されるべきかを明確に示すこと,あるいは(2)どの特徴が閉じるべきかを明確に示すこと,のいずれかのプリテキストタスクを用いて学習する。
本研究では,識別・調整手法の正の側面を組み合わせて,上記の課題に対処するハイブリッド手法を設計する。
本手法は,識別的予測タスクによってそれぞれ反発とアトラクションのメカニズムを明確に特定し,ペアビュー間の相互情報を同時に最大化する。
確立された9つのベンチマーク実験により,提案モデルが自己監督と移動の既成結果より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-08-19T09:07:41Z) - Deep Clustering based Fair Outlier Detection [19.601280507914325]
本稿では,統合深層クラスタリングと外乱検出を強化するために,インスタンスレベルの重み付き表現学習戦略を提案する。
我々のDCFOD法は, 異常検出において, 異常検出の妥当性と2種類のフェアネス概念の両面において, 常に優れた性能を達成している。
論文 参考訳(メタデータ) (2021-06-09T15:12:26Z) - Deep Fair Discriminative Clustering [24.237000220172906]
2値および多状態保護状態変数(PSV)に対するグループレベルの公正性の一般概念について検討する。
本稿では,クラスタリング目標とフェアネス目標とを組み合わせて,フェアクラスタを適応的に学習する改良学習アルゴリズムを提案する。
本フレームワークは, フレキシブルフェアネス制約, マルチステートPSV, 予測クラスタリングなど, 新規なクラスタリングタスクに対して有望な結果を示す。
論文 参考訳(メタデータ) (2021-05-28T23:50:48Z) - Learning to Generate Fair Clusters from Demonstrations [27.423983748614198]
本稿では,専門家による限定的な実証に基づいて,問題に対する意図された公平性制約を特定する方法について述べる。
本稿では、実演からフェアネスメトリックを識別し、既存のオフザシェルフクラスタリング技術を用いてクラスタを生成するアルゴリズムを提案する。
本稿では,本手法を用いて解釈可能な解を生成する方法について検討する。
論文 参考訳(メタデータ) (2021-02-08T03:09:33Z) - Unsupervised Domain Adaptation in Semantic Segmentation via Orthogonal
and Clustered Embeddings [25.137859989323537]
本稿では,機能クラスタリング手法に基づく効果的なUnsupervised Domain Adaptation(UDA)戦略を提案する。
識別的クラスタリング性能を高めるために,2つの新しい学習目標を導入する。
論文 参考訳(メタデータ) (2020-11-25T10:06:22Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。