論文の概要: Federated k-Means via Generalized Total Variation Minimization
- arxiv url: http://arxiv.org/abs/2510.09718v1
- Date: Fri, 10 Oct 2025 06:32:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.584424
- Title: Federated k-Means via Generalized Total Variation Minimization
- Title(参考訳): 一般化トータル変分最小化によるフェデレーションk平均
- Authors: A. Jung,
- Abstract要約: 我々は、相互接続されたデバイスがプライベートなローカルデータセットにアクセスでき、ローカルデータセットを共有することなくデータセット全体を共同でクラスタリングする必要がある、フェデレーションクラスタリングの問題を考察する。
私たちはk-meansの原則に基づいたハードクラスタリングに重点を置いています。
我々は、GTVMinの例として、連合k平均クラスタリングを定式化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of federated clustering, where interconnected devices have access to private local datasets and need to jointly cluster the overall dataset without sharing their local dataset. Our focus is on hard clustering based on the k-means principle. We formulate federated k-means clustering as an instance of GTVMin. This formulation naturally lends to a federated k-means algorithm where each device updates local cluster centroids by solving a modified local k-means problem. The modification involves adding a penalty term to measure the discrepancy between the cluster centroid of neighbouring devices. Our federated k-means algorithm is privacy-friendly as it only requires sharing aggregated information among interconnected devices.
- Abstract(参考訳): 我々は、相互接続されたデバイスがプライベートなローカルデータセットにアクセスでき、ローカルデータセットを共有することなくデータセット全体を共同でクラスタリングする必要がある、フェデレーションクラスタリングの問題を考察する。
私たちはk-meansの原則に基づいたハードクラスタリングに重点を置いています。
我々は、GTVMinの例として、連合k平均クラスタリングを定式化する。
この定式化は自然に、各デバイスが局所的なk平均問題を解くことで局所的なクラスタセントロイドを更新するフェデレートされたk平均アルゴリズムに結びつく。
この修正には、近隣機器のクラスタセントロイド間の差を測定するためにペナルティ項を追加することが含まれる。
我々の連合k平均アルゴリズムは、相互接続されたデバイス間でのみ集約された情報を共有する必要があるため、プライバシフレンドリである。
関連論文リスト
- K*-Means: A Parameter-free Clustering Algorithm [55.20132267309382]
k*-meansは、kや他のパラメータをセットする必要がない新しいクラスタリングアルゴリズムである。
最小記述長の原理を用いて、クラスタの分割とマージによって最適なクラスタ数k*を自動的に決定する。
k*-平均が収束することが保証されることを証明し、kが未知のシナリオにおいて既存のメソッドよりも著しく優れていることを実験的に証明する。
論文 参考訳(メタデータ) (2025-05-17T08:41:07Z) - How to optimize K-means? [8.206124331448931]
センターベースのクラスタリングアルゴリズム(例えばK平均)はクラスタリングタスクに人気があるが、通常は複雑なデータセットで高い精度を達成するのに苦労する。
主な理由は、従来のセンターベースのクラスタリングアルゴリズムが、クラスタ内のクラスタリングセンターを1つだけ特定しているからです。
そこで本研究では,ECACと呼ばれる汎用最適化手法を提案し,異なる中心型クラスタリングアルゴリズムを最適化する。
論文 参考訳(メタデータ) (2025-03-25T03:37:52Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Fuzzy K-Means Clustering without Cluster Centroids [21.256564324236333]
ファジィK平均クラスタリングは教師なしデータ分析において重要な手法である。
本稿では,クラスタセントロイドへの依存を完全に排除する,ファジィテクストK-Meansクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-07T12:25:03Z) - Dynamically Weighted Federated k-Means [0.0]
フェデレートされたクラスタリングにより、複数のデータソースが協力してデータをクラスタリングし、分散化とプライバシ保護を維持できる。
我々は,ロイドのk-meansクラスタリング法に基づいて,動的に重み付けされたk-means (DWF k-means) という新しいクラスタリングアルゴリズムを提案する。
我々は、クラスタリングスコア、精度、およびv尺度の観点から、アルゴリズムの性能を評価するために、複数のデータセットとデータ分散設定の実験を行う。
論文 参考訳(メタデータ) (2023-10-23T12:28:21Z) - Federated K-means Clustering [0.0]
フェデレートラーニング(Federated Learning)は、データをプールすることなく、機械学習目的で分散データセットを使用することを可能にする技術である。
この研究は、K平均クラスタリングを連合的に実装するアルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-10-02T13:32:00Z) - Federated clustering with GAN-based data synthesis [12.256298398007848]
フェデレーションクラスタリング(FC)は、フェデレーション設定における集中クラスタリングの拡張である。
我々は、SDA-FCと呼ばれる新しいフェデレーションクラスタリングフレームワークを提案する。
各クライアントで生成する敵ネットワークをローカルにトレーニングし、生成した合成データをサーバにアップロードし、合成データ上でKMまたはFCMを実行する。
合成データにより、非IID問題に対してモデルが免疫しやすくなり、プライベートデータを共有することなく、より効率的にグローバルな類似性特性を捉えることができる。
論文 参考訳(メタデータ) (2022-10-29T07:42:11Z) - Machine Unlearning of Federated Clusters [36.663892269484506]
フェデレーションクラスタリング(Federated Clustering)は、パーソナライズされたレコメンデータや医療システムなど、多くの実践的なアプリケーションで発生する、教師なしの学習問題である。
FCにおける機械学習の課題を初めて紹介する。
カスタマイズされたセキュアなFCフレームワークのための効率的なアンラーニング機構を提案する。
論文 参考訳(メタデータ) (2022-10-28T22:21:29Z) - Towards Federated Clustering: A Federated Fuzzy $c$-Means Algorithm
(FFCM) [0.0]
Federated Learning(FL)は、分散データを持つ複数のパーティが共同で機械学習(ML)モデルをトレーニングする環境である。
我々は、この研究領域が自分自身にどのように関心を持つか、また、非独立に特定された分散データ(すなわち、d.d.)のような問題にどのように対処するかを説明する。
本研究では,グローバルクラスタセンターを計算し,その挙動を数値実験により評価する2つの手法を提案する。
論文 参考訳(メタデータ) (2022-01-18T21:22:28Z) - Differentially-Private Clustering of Easy Instances [67.04951703461657]
異なるプライベートクラスタリングでは、個々のデータポイントに関する情報を公開せずに、$k$のクラスタセンターを特定することが目標だ。
我々は、データが"簡単"である場合にユーティリティを提供する実装可能な差分プライベートクラスタリングアルゴリズムを提供する。
我々は、非プライベートクラスタリングアルゴリズムを簡単なインスタンスに適用し、結果をプライベートに組み合わせることのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-29T08:13:56Z) - Anomaly Clustering: Grouping Images into Coherent Clusters of Anomaly
Types [60.45942774425782]
我々は異常クラスタリングを導入し、その目標はデータを異常型の一貫性のあるクラスタにまとめることである。
これは異常検出とは違い、その目標は異常を通常のデータから分割することである。
パッチベースの事前訓練されたディープ埋め込みとオフザシェルフクラスタリング手法を用いた,単純で効果的なクラスタリングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-21T23:11:33Z) - Robust Trimmed k-means [70.88503833248159]
本稿では,外乱点とクラスタポイントを同時に識別するRobust Trimmed k-means (RTKM)を提案する。
RTKMは他の方法と競合することを示す。
論文 参考訳(メタデータ) (2021-08-16T15:49:40Z) - FedMix: Approximation of Mixup under Mean Augmented Federated Learning [60.503258658382]
フェデレートラーニング(FL)は、エッジデバイスが各デバイス内でデータを直接共有することなく、モデルを集合的に学習することを可能にする。
現在の最先端アルゴリズムは、クライアント間のローカルデータの均一性が増大するにつれて性能劣化に悩まされる。
我々はFedMixという名の新しい拡張アルゴリズムを提案し、これは驚くべきが単純なデータ拡張手法であるMixupにインスパイアされている。
論文 参考訳(メタデータ) (2021-07-01T06:14:51Z) - Local Connectivity in Centroid Clustering [3.4925763160992402]
センチロイドクラスタリングにおける「地域接続性」は,地域砂漠の評価において重要な要素である。
我々は、ローカル接続を利用して、問題のクラスタに対するそのメンバシップをサポートするために、オブジェクトのローカル近所が提供しているサポートを参照する。
次に,密度に基づくクラスタリングの概念を活用し,クラスタリング出力の局所接続性を高めるクラスタリング手法であるLOFKMを考案する。
論文 参考訳(メタデータ) (2020-10-11T21:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。