論文の概要: Deep Clustering with Associative Memories
- arxiv url: http://arxiv.org/abs/2601.00963v1
- Date: Fri, 02 Jan 2026 19:21:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:21.881342
- Title: Deep Clustering with Associative Memories
- Title(参考訳): 連想記憶を用いた深層クラスタリング
- Authors: Bishwajit Saha, Dmitry Krotov, Mohammed J. Zaki, Parikshit Ram,
- Abstract要約: 本稿では,新しい深層クラスタリング法であるDCAMを定式化するために,Associative Memoriesを用いたエネルギーベースダイナミクスを利用した新たな損失関数を提案する。
本実験では,DCAMの利点を実証し,各種アーキテクチャ選択のためのクラスタリング品質の向上を図った。
- 参考スコア(独自算出の注目度): 28.46602918457589
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep clustering - joint representation learning and latent space clustering - is a well studied problem especially in computer vision and text processing under the deep learning framework. While the representation learning is generally differentiable, clustering is an inherently discrete optimization task, requiring various approximations and regularizations to fit in a standard differentiable pipeline. This leads to a somewhat disjointed representation learning and clustering. In this work, we propose a novel loss function utilizing energy-based dynamics via Associative Memories to formulate a new deep clustering method, DCAM, which ties together the representation learning and clustering aspects more intricately in a single objective. Our experiments showcase the advantage of DCAM, producing improved clustering quality for various architecture choices (convolutional, residual or fully-connected) and data modalities (images or text).
- Abstract(参考訳): 深層クラスタリング – 共同表現学習と潜時空間クラスタリング – は、特にディープラーニングフレームワークの下でのコンピュータビジョンとテキスト処理において、よく研究されている問題である。
表現学習は一般的に微分可能であるが、クラスタリングは本質的に離散的な最適化タスクであり、標準的な微分可能なパイプラインに適合するためには、様々な近似と正規化が必要である。
これはやや不整合な表現学習とクラスタリングにつながります。
本研究では,1つの目的においてより複雑な表現学習とクラスタリングの側面を結合した新しい深層クラスタリング法 DCAM を定式化するために,Associative Memories を用いたエネルギーベースダイナミクスを利用した新たな損失関数を提案する。
我々の実験はDCAMの利点を示し、様々なアーキテクチャ選択(畳み込み、残留または完全接続)とデータモダリティ(イメージやテキスト)のクラスタリング品質を改善した。
関連論文リスト
- Multi-view Clustering via Bi-level Decoupling and Consistency Learning [16.5206977323695]
マルチビュークラスタリングは,マルチビューデータの基盤となるパターンを解析するための有効な手法であることが示されている。
本稿では,多視点データに対する効果的な表現を探索するバイレベルデカップリング・一貫性学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-19T04:17:54Z) - Revisiting Self-Supervised Heterogeneous Graph Learning from Spectral Clustering Perspective [52.662463893268225]
自己教師付きヘテロジニアスグラフ学習(SHGL)は様々なシナリオにおいて有望な可能性を示している。
既存のSHGLメソッドには2つの大きな制限がある。
ランクと二重整合性制約によって強化された新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2024-12-01T09:33:20Z) - Discriminative Anchor Learning for Efficient Multi-view Clustering [59.11406089896875]
マルチビュークラスタリング(DALMC)のための識別的アンカー学習を提案する。
元のデータセットに基づいて、識別的なビュー固有の特徴表現を学習する。
これらの表現に基づいて異なるビューからアンカーを構築することで、共有アンカーグラフの品質が向上します。
論文 参考訳(メタデータ) (2024-09-25T13:11:17Z) - End-to-end Differentiable Clustering with Associative Memories [23.618514621460694]
クラスタリングは、集中的な離散最適化問題を含む、広く使われている教師なし学習手法である。
本稿では,離散クラスタリング問題の非拘束的連続緩和を提案し,ClAMと呼ばれるAMによるエンドツーエンドの微分可能なクラスタリングを実現する。
各種データセットに対する評価では、ClAMは自己スーパービジョンの恩恵を受けており、従来のロイドのk平均アルゴリズムと、より最近の連続的なクラスタリング緩和(シルエット係数の60%まで)の両方で大幅に改善されていることが示されている。
論文 参考訳(メタデータ) (2023-06-05T19:34:36Z) - COMET: A Comprehensive Cluster Design Methodology for Distributed Deep Learning Training [42.514897110537596]
現代のディープラーニング(DL)モデルは、トレーニングする専門的でハイエンドなノードの大規模なクラスタを必要とするサイズに成長しています。
このようなクラスタを設計してパフォーマンスと利用の両方を最大化します。
本稿では,並列化戦略と鍵クラスタリソースのプロビジョニングが分散DLトレーニングのパフォーマンスに与える影響を共同で研究する,総合的なクラスタ設計方法論とワークフローであるCOMETを紹介する。
論文 参考訳(メタデータ) (2022-11-30T00:32:37Z) - Deep Image Clustering with Contrastive Learning and Multi-scale Graph
Convolutional Networks [58.868899595936476]
コントラスト学習とマルチスケールグラフ畳み込みネットワーク(IcicleGCN)を用いた画像クラスタリング手法を提案する。
複数の画像データセットの実験は、最先端のIcicleGCNよりも優れたクラスタリング性能を示している。
論文 参考訳(メタデータ) (2022-07-14T19:16:56Z) - Learning the Precise Feature for Cluster Assignment [39.320210567860485]
表現学習とクラスタリングを1つのパイプラインに初めて統合するフレームワークを提案する。
提案フレームワークは,近年開発された生成モデルを用いて,本質的な特徴を学習する能力を活用している。
実験の結果,提案手法の性能は,最先端の手法よりも優れているか,少なくとも同等であることがわかった。
論文 参考訳(メタデータ) (2021-06-11T04:08:54Z) - Clustering-friendly Representation Learning via Instance Discrimination
and Feature Decorrelation [0.0]
本稿では,インスタンス識別と特徴デコレーションを用いたクラスタリングに親しみやすい表現学習手法を提案する。
CIFAR-10とImageNet-10を用いた画像クラスタリングの評価では,それぞれ81.5%,95.4%の精度が得られた。
論文 参考訳(メタデータ) (2021-05-31T22:59:31Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Deep adaptive fuzzy clustering for evolutionary unsupervised
representation learning [2.8028128734158164]
大規模で複雑な画像のクラスタ割り当ては、パターン認識とコンピュータビジョンにおいて重要かつ困難な作業です。
反復最適化による新しい進化的教師なし学習表現モデルを提案する。
ファジィメンバシップを利用して深層クラスタ割り当ての明確な構造を表現するディープリコンストラクションモデルに対して,共同でファジィクラスタリングを行った。
論文 参考訳(メタデータ) (2021-03-31T13:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。