論文の概要: Deep Fair Clustering via Maximizing and Minimizing Mutual Information:
Theory, Algorithm and Metric
- arxiv url: http://arxiv.org/abs/2209.12396v2
- Date: Thu, 20 Apr 2023 04:07:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 18:08:51.214056
- Title: Deep Fair Clustering via Maximizing and Minimizing Mutual Information:
Theory, Algorithm and Metric
- Title(参考訳): 相互情報の最大化と最小化によるディープフェアクラスタリング:理論、アルゴリズム、メトリクス
- Authors: Pengxin Zeng, Yunfan Li, Peng Hu, Dezhong Peng, Jiancheng Lv, Xi Peng
- Abstract要約: 我々は,深層クラスタリングのための相互情報理論を開発し,FCMIと呼ばれる新しいアルゴリズムを設計する。
FCMIは、深い公正クラスタリング、例えば、コンパクトでバランスの取れた、公平なクラスタ、および情報的特徴によって期待される4つの特徴を達成するように設計されている。
既存の評価指標とは異なり、我々の測定基準はクラスタリングの品質と公平さを個別の方法ではなく全体として測定します。
- 参考スコア(独自算出の注目度): 28.40833362941683
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Fair clustering aims to divide data into distinct clusters while preventing
sensitive attributes (\textit{e.g.}, gender, race, RNA sequencing technique)
from dominating the clustering. Although a number of works have been conducted
and achieved huge success recently, most of them are heuristical, and there
lacks a unified theory for algorithm design. In this work, we fill this blank
by developing a mutual information theory for deep fair clustering and
accordingly designing a novel algorithm, dubbed FCMI. In brief, through
maximizing and minimizing mutual information, FCMI is designed to achieve four
characteristics highly expected by deep fair clustering, \textit{i.e.},
compact, balanced, and fair clusters, as well as informative features. Besides
the contributions to theory and algorithm, another contribution of this work is
proposing a novel fair clustering metric built upon information theory as well.
Unlike existing evaluation metrics, our metric measures the clustering quality
and fairness as a whole instead of separate manner. To verify the effectiveness
of the proposed FCMI, we conduct experiments on six benchmarks including a
single-cell RNA-seq atlas compared with 11 state-of-the-art methods in terms of
five metrics. The code could be accessed from \url{ https://pengxi.me}.
- Abstract(参考訳): Fair Clusteringは、機密属性(\textit{e.}, gender, race, RNAシークエンシング技術)がクラスタリングを支配するのを防ぎながら、データを異なるクラスタに分割することを目的としている。
近年、多くの研究が実施され大きな成功を収めているが、そのほとんどはヒューリスティックであり、アルゴリズム設計の統一理論が欠如している。
本研究では, 深層クラスタリングのための相互情報理論を開発し, FCMIと呼ばれる新しいアルゴリズムを設計することによって, この空白を埋める。
簡単に言うと、相互情報の最大化と最小化により、fcmiは、deep fair clustering、 \textit{i.e}、compact、 balanced、fair clusters、および情報的特徴により、非常に期待される4つの特徴を達成するように設計されている。
理論とアルゴリズムへの貢献に加えて、この研究のもう一つの貢献は、情報理論に基づく新しい公正クラスタリング計量の提案である。
既存の評価基準と異なり、当社のメトリクスはクラスタの品質と公平性を個別の方法で測定します。
提案するFCMIの有効性を検証するため,単細胞RNA-seqアトラスを含む6つのベンチマーク実験を行った。
コードは \url{ https://pengxi.me}からアクセスできる。
関連論文リスト
- OMH: Structured Sparsity via Optimally Matched Hierarchy for
Unsupervised Semantic Segmentation [59.17881251444659]
Un Semantic segmenting (USS)は、事前に定義されたラベルに頼ることなく、イメージをセグメント化する。
上記の問題を同時に解決するために,OMH (Optimally Matched Hierarchy) という新しいアプローチを導入する。
我々のOMHは既存のUSS法と比較して教師なしセグメンテーション性能がよい。
論文 参考訳(メタデータ) (2024-03-11T09:46:41Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - Hybrid Fuzzy-Crisp Clustering Algorithm: Theory and Experiments [0.0]
本稿では,対象関数の線形項と2次項を組み合わせたファジィクロップクラスタリングアルゴリズムを提案する。
このアルゴリズムでは、クラスタへのデータポイントのメンバシップが、クラスタセンタから十分に離れていれば、自動的に正確にゼロに設定される。
提案アルゴリズムは、不均衡なデータセットの従来の手法よりも優れており、よりバランスの取れたデータセットと競合することができる。
論文 参考訳(メタデータ) (2023-03-25T05:27:26Z) - Clustering with minimum spanning trees: How good can it be? [2.184775414778289]
最小スパンニングツリー(MST)は、パターン認識活動におけるデータセットの便利な表現を提供する。
本稿では,低次元空間における分割データクラスタリングタスクにおいて,それらが意味を持つ範囲を定量化する。
論文 参考訳(メタデータ) (2023-03-10T03:18:03Z) - Deep Embedded K-Means Clustering [1.5697094704362897]
主な考え方は、表現学習とクラスタリングが相互に強化できることだ。
本稿では,この2つの疑問に答えるために,DeKM(Deep Embedded K-Means)を提案する。
実世界のデータセットに関する実験結果は、DECMが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-09-30T14:12:59Z) - Very Compact Clusters with Structural Regularization via Similarity and
Connectivity [3.779514860341336]
本稿では,汎用データセットのためのエンドツーエンドのディープクラスタリングアルゴリズムであるVery Compact Clusters (VCC)を提案する。
提案手法は,最先端のクラスタリング手法よりも優れたクラスタリング性能を実現する。
論文 参考訳(メタデータ) (2021-06-09T23:22:03Z) - Unsupervised Visual Representation Learning by Online Constrained
K-Means [44.38989920488318]
クラスタ識別は、教師なし表現学習の効果的な前提課題である。
オンラインtextbfConstrained textbfK-mtextbfeans (textbfCoKe) を用いたクラスタリングに基づく新しいプリテキストタスクを提案する。
当社のオンライン割当て方式は,グローバルな最適化に近づくための理論的保証を持っている。
論文 参考訳(メタデータ) (2021-05-24T20:38:32Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Structured Graph Learning for Clustering and Semi-supervised
Classification [74.35376212789132]
データの局所構造とグローバル構造の両方を保存するためのグラフ学習フレームワークを提案する。
本手法は, サンプルの自己表現性を利用して, 局所構造を尊重するために, 大域的構造と適応的隣接アプローチを捉える。
我々のモデルは、ある条件下でのカーネルk平均法とk平均法の組合せと等価である。
論文 参考訳(メタデータ) (2020-08-31T08:41:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。