論文の概要: Differentiable Clustering with Perturbed Spanning Forests
- arxiv url: http://arxiv.org/abs/2305.16358v2
- Date: Tue, 30 May 2023 17:29:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 22:21:23.437815
- Title: Differentiable Clustering with Perturbed Spanning Forests
- Title(参考訳): スパンジング林による分化性クラスタリング
- Authors: Lawrence Stewart (DI-ENS), Francis S Bach (DI-ENS), Felipe Llinares
L\'opez, Quentin Berthet
- Abstract要約: そこで本研究では,いくつかの連結成分を持つスパンジング林の変種であるミニマルウェイト・スパンニング・フォレストを基盤とした異種クラスタリング手法を提案する。
線形プログラムの解の摂動に頼り、スムースで効率的な勾配計算を行う。
ノイズの多いデータセットや挑戦的ジオメトリなど,難易度の高い設定でも,本手法は良好に動作可能であることを示す。
- 参考スコア(独自算出の注目度): 7.541571634887805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a differentiable clustering method based on minimum-weight
spanning forests, a variant of spanning trees with several connected
components. Our method relies on stochastic perturbations of solutions of
linear programs, for smoothing and efficient gradient computations. This allows
us to include clustering in end-to-end trainable pipelines. We show that our
method performs well even in difficult settings, such as datasets with high
noise and challenging geometries. We also formulate an ad hoc loss to
efficiently learn from partial clustering data using this operation. We
demonstrate its performance on several real world datasets for supervised and
semi-supervised tasks.
- Abstract(参考訳): そこで本研究では,複数の連結成分を有する樹木の種別である最小重み付きスパンニングフォレストに基づく分化可能なクラスタリング手法を提案する。
本手法は,線形プログラムの解の確率的摂動に依存し,滑らかかつ効率的な勾配計算を行う。
これにより、エンドツーエンドのトレーニング可能なパイプラインにクラスタリングを含めることができます。
提案手法は,ノイズの多いデータセットや難解なジオメトリなど,難しい設定でもうまく機能することを示す。
また、この演算を用いて部分クラスタリングデータから効率よく学習するアドホック損失を定式化する。
教師付きおよび半教師付きタスクのための実世界の複数のデータセット上でその性能を示す。
関連論文リスト
- Data Clustering and Visualization with Recursive Goemans-Williamson MaxCut Algorithm [0.0]
本稿では,ベクトル化されたデータクラスタリングタスクの性能向上を実現するため,古典的な Goemans-Williamson MaxCut アルゴリズムを改良した。
本手法は計算効率とクラスタリング精度の両面での優位性を提供する。
論文 参考訳(メタデータ) (2024-08-14T18:30:57Z) - One-Step Multi-View Clustering Based on Transition Probability [61.841829428397034]
遷移確率に基づくワンステップマルチビュークラスタリング(OSMVC-TP)を導入する。
本手法は,アンカーポイントからカテゴリへの遷移確率を直接学習し,サンプルからカテゴリへの遷移確率を計算する。
異なる視点でラベルの整合性を維持するために、ソフトラベルからなるテンソルにシャッテン p-ノルムの制約を適用する。
論文 参考訳(メタデータ) (2024-03-03T09:43:23Z) - Stable Cluster Discrimination for Deep Clustering [7.175082696240088]
ディープクラスタリングは、インスタンスの表現(つまり、表現学習)を最適化し、固有のデータ分散を探索することができる。
結合された目的は、すべてのインスタンスが一様機能に崩壊する、自明な解決策を意味する。
本研究では,1段階クラスタリングにおいて,教師あり学習における一般的な識別タスクが不安定であることを示す。
新規な安定クラスタ識別(SeCu)タスクを提案し、それに応じて新しいハードネス対応クラスタリング基準を得ることができる。
論文 参考訳(メタデータ) (2023-11-24T06:43:26Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - Weakly Supervised Video Anomaly Detection Based on Cross-Batch
Clustering Guidance [39.43891080713327]
ビデオレベルのラベルのみをトレーニングできるため、弱教師付きビデオ異常検出(WSVAD)は難しい課題である。
本稿では,クロスバッチクラスタリングガイダンスに基づく新しいWSVAD手法を提案する。
論文 参考訳(メタデータ) (2022-12-16T14:38:30Z) - Semisoft Task Clustering for Multi-Task Learning [2.806911268410107]
マルチタスク学習(MTL)は、複数の関連する予測タスクの性能を向上させることを目的としている。
そこで本研究では,タスククラスタリング構造を半ソフトなタスククラスタリング手法として提案する。
合成および実世界のデータセットに基づく実験結果は,提案手法の有効性と有効性を検証する。
論文 参考訳(メタデータ) (2022-11-28T07:23:56Z) - Dense FixMatch: a simple semi-supervised learning method for pixel-wise
prediction tasks [68.36996813591425]
Dense FixMatchは,高密度かつ構造化された予測タスクのオンライン半教師付き学習のための簡易な手法である。
我々は、擬似ラベルにマッチング操作を追加することにより、画像分類を超えた半教師付き学習問題にFixMatchの適用を可能にする。
Dense FixMatchは、ラベル付きデータのみを使用して教師付き学習と比較すると、結果を著しく改善し、ラベル付きサンプルの1/4でそのパフォーマンスに近づいた。
論文 参考訳(メタデータ) (2022-10-18T15:02:51Z) - Channel DropBlock: An Improved Regularization Method for Fine-Grained
Visual Classification [58.07257910065007]
既存のアプローチは主に、識別的部分を見つけるための注意機構や、高度にパラメータ化された特徴を弱教師付きで抽出する特徴符号化アプローチを導入することでこの問題に対処している。
本研究では,CDB(Channel DropBlock)と呼ばれる軽量で効果的な正規化手法を提案する。
論文 参考訳(メタデータ) (2021-06-07T09:03:02Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - GuCNet: A Guided Clustering-based Network for Improved Classification [15.747227188672088]
本稿では,既存の有分別データセットの分類容易性を活用した,新しい,かつ非常に単純な分類手法を提案する。
実験データセットとのセマンティックな関係を持たないかもしれないガイドデータセットは、提案されたネットワークは、課題データセットのクラスワイドな特徴をガイドセットの異なるクラスタに埋め込もうとする。
論文 参考訳(メタデータ) (2020-10-11T10:22:03Z) - Stable and consistent density-based clustering via multiparameter
persistence [77.34726150561087]
トポロジカルデータ解析による次数-リップス構成について考察する。
我々は,入力データの摂動に対する安定性を,通信間距離を用いて解析する。
私たちはこれらのメソッドを、Persistableと呼ばれる密度ベースのクラスタリングのためのパイプラインに統合します。
論文 参考訳(メタデータ) (2020-05-18T19:45:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。