論文の概要: A Generic Framework for Fair Consensus Clustering in Streams
- arxiv url: http://arxiv.org/abs/2602.11500v1
- Date: Thu, 12 Feb 2026 02:52:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.60796
- Title: A Generic Framework for Fair Consensus Clustering in Streams
- Title(参考訳): ストリームにおけるフェアコンセンサスクラスタリングのためのジェネリックフレームワーク
- Authors: Diptarka Chakraborty, Kushagra Chatterjee, Debarati Das, Tien-Long Nguyen,
- Abstract要約: 本稿では,クラスタリングに最も近いクラスタリングとクラスタフィッティングを統合した,新しい汎用アルゴリズムフレームワークを提案する。
我々は手法をより一般的なk中間コンセンサスクラスタリング問題に拡張する。
- 参考スコア(独自算出の注目度): 1.6398837165722515
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Consensus clustering seeks to combine multiple clusterings of the same dataset, potentially derived by considering various non-sensitive attributes by different agents in a multi-agent environment, into a single partitioning that best reflects the overall structure of the underlying dataset. Recent work by Chakraborty et al, introduced a fair variant under proportionate fairness and obtained a constant-factor approximation by naively selecting the best closest fair input clustering; however, their offline approach requires storing all input clusterings, which is prohibitively expensive for most large-scale applications. In this paper, we initiate the study of fair consensus clustering in the streaming model, where input clusterings arrive sequentially and memory is limited. We design the first constant-factor algorithm that processes the stream while storing only a logarithmic number of inputs. En route, we introduce a new generic algorithmic framework that integrates closest fair clustering with cluster fitting, yielding improved approximation guarantees not only in the streaming setting but also when revisited offline. Furthermore, the framework is fairness-agnostic: it applies to any fairness definition for which an approximately close fair clustering can be computed efficiently. Finally, we extend our methods to the more general k-median consensus clustering problem.
- Abstract(参考訳): コンセンサスクラスタリング(Consensus clustering)は、マルチエージェント環境でさまざまなエージェントによるさまざまな非機密属性を考慮し、基盤となるデータセットの全体構造を最もよく反映した単一パーティショニングに、同一データセットの複数のクラスタリングを組み合わせることを目指している。
Chakrabortyらによる最近の研究は、比例フェアネス(英語版)の下でフェアバリアントを導入し、最も近いフェアな入力クラスタリングをネーティブに選択することで定数係数近似を得たが、彼らのオフラインアプローチは、ほとんどの大規模アプリケーションでは違法に高価である全ての入力クラスタリングを保存する必要がある。
本稿では、入力クラスタリングが順次到着し、メモリが制限されるストリーミングモデルにおいて、公正なコンセンサスクラスタリングの研究を開始する。
入力の対数だけを格納しながらストリームを処理する最初の定数係数アルゴリズムを設計する。
提案手法では,クラスタフィッティングに最も近いクラスタリングを組み込むことで,ストリーミング環境だけでなく,オフラインで再検討する際の近似保証も向上する。
さらに、このフレームワークはフェアネス非依存であり、近似されたフェアクラスタリングを効率的に計算できる任意のフェアネス定義に適用できる。
最後に、我々の手法をより一般的なk中間コンセンサスクラスタリング問題に拡張する。
関連論文リスト
- A General Anchor-Based Framework for Scalable Fair Clustering [20.252573532319875]
AnchorベースのFair Clustering Framework(AFCF)を紹介します。
AFCFは任意の公正クラスタリングアルゴリズムを線形時間拡張性で強化する。
理論的には、データセット全体における最終クラスタリングの公平性は、アンカークラスタリングの公平性と一致することが証明されている。
論文 参考訳(メタデータ) (2025-11-13T02:50:06Z) - Parameter-Free Clustering via Self-Supervised Consensus Maximization (Extended Version) [50.41628860536753]
本稿では,SCMax と呼ばれる自己教師型コンセンサス最大化による,新しい完全パラメータフリークラスタリングフレームワークを提案する。
本フレームワークは,階層的なクラスタリングとクラスタ評価を単一の統合プロセスで行う。
論文 参考訳(メタデータ) (2025-11-12T11:17:17Z) - Towards Fair Representation: Clustering and Consensus [1.7243216387069678]
特定の保護された属性に関して、代表的であるだけでなく公平でもあるコンセンサスクラスタリングを見つけます。
調査の一環として,既存のクラスタリングを最小限に修正して公平性を実現する方法について検討した。
我々は,同値なグループ表現とニア線形時間定数係数近似アルゴリズムを用いたデータセットの最適アルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-06-10T10:33:21Z) - Fair Clustering via Alignment [12.12426896501947]
クラスタリングにおけるアルゴリズムフェアネスは、与えられた機密属性に対して各クラスタに割り当てられたインスタンスの割合をバランスさせることを目的としている。
本稿では, 対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対物対
論文 参考訳(メタデータ) (2025-05-14T04:29:09Z) - Revisiting Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [85.51611950757643]
IAC (Instance-Adaptive Clustering, インスタンス適応クラスタリング) を提案する。
IACは$ MathcalO(n, textpolylog(n) $の計算複雑性を維持しており、大規模問題に対してスケーラブルで実用的なものである。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - Gradient Based Clustering [72.15857783681658]
本稿では,クラスタリングの品質を計測するコスト関数の勾配を用いて,距離に基づくクラスタリングの一般的な手法を提案する。
アプローチは反復的な2段階の手順(クラスタ割り当てとクラスタセンターのアップデートの代替)であり、幅広い機能に適用できる。
論文 参考訳(メタデータ) (2022-02-01T19:31:15Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。