論文の概要: An unsupervised deep learning framework via integrated optimization of
representation learning and GMM-based modeling
- arxiv url: http://arxiv.org/abs/2009.05234v1
- Date: Fri, 11 Sep 2020 04:57:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 21:34:47.908791
- Title: An unsupervised deep learning framework via integrated optimization of
representation learning and GMM-based modeling
- Title(参考訳): 表現学習とGMMに基づくモデリングの統合最適化による教師なしディープラーニングフレームワーク
- Authors: Jinghua Wang and Jianmin Jiang
- Abstract要約: 本稿では,ディープ表現とGMMに基づくディープモデリングの両面において,共同学習の新たな原則を提案する。
類似分野の既存の作業と比較すると、目的関数は2つの学習目標を持ち、共同で最適化されるように作成される。
クラスタ間距離を小さくすることでクラスタのコンパクト性を著しく向上し、クラスタ間距離を増大させることで分離性を向上させる。
- 参考スコア(独自算出の注目度): 31.334196673143257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While supervised deep learning has achieved great success in a range of
applications, relatively little work has studied the discovery of knowledge
from unlabeled data. In this paper, we propose an unsupervised deep learning
framework to provide a potential solution for the problem that existing deep
learning techniques require large labeled data sets for completing the training
process. Our proposed introduces a new principle of joint learning on both deep
representations and GMM (Gaussian Mixture Model)-based deep modeling, and thus
an integrated objective function is proposed to facilitate the principle. In
comparison with the existing work in similar areas, our objective function has
two learning targets, which are created to be jointly optimized to achieve the
best possible unsupervised learning and knowledge discovery from unlabeled data
sets. While maximizing the first target enables the GMM to achieve the best
possible modeling of the data representations and each Gaussian component
corresponds to a compact cluster, maximizing the second term will enhance the
separability of the Gaussian components and hence the inter-cluster distances.
As a result, the compactness of clusters is significantly enhanced by reducing
the intra-cluster distances, and the separability is improved by increasing the
inter-cluster distances. Extensive experimental results show that the propose
method can improve the clustering performance compared with benchmark methods.
- Abstract(参考訳): 教師付きディープラーニングは様々なアプリケーションで大きな成功を収めてきたが、ラベルのないデータから知識の発見を研究する研究は比較的少ない。
本稿では,既存のディープラーニング技術が学習プロセスの完了に巨大なラベル付きデータセットを必要とする問題に対する潜在的な解決策を提供するために,教師なしのディープラーニングフレームワークを提案する。
本稿では,深部表現とGMM(ガウス混合モデル)に基づく深部モデリングを併用した共同学習の新たな原理を提案する。
類似分野の既存の研究と比較すると、我々の目的関数は2つの学習目標を持ち、これはラベルなしデータセットから最高の教師なし学習と知識発見を達成するために共同で最適化される。
第1ターゲットの最大化により、GMMはデータ表現の最良のモデリングを達成でき、各ガウス成分はコンパクトクラスタに対応するが、第2項の最大化はガウス成分の分離性を高め、したがってクラスタ間距離を増大させる。
その結果、クラスタ間距離を小さくすることでクラスタのコンパクト性が著しく向上し、クラスタ間距離を増大させることで分離性が向上する。
提案手法は,ベンチマーク法と比較してクラスタリング性能が向上することを示す。
関連論文リスト
- Deep Boosting Learning: A Brand-new Cooperative Approach for Image-Text Matching [53.05954114863596]
画像テキストマッチングのための新しいDeep Boosting Learning (DBL)アルゴリズムを提案する。
アンカーブランチは、まずデータプロパティに関する洞察を提供するために訓練される。
ターゲットブランチは、一致したサンプルと未一致のサンプルとの相対距離をさらに拡大するために、より適応的なマージン制約を同時に課される。
論文 参考訳(メタデータ) (2024-04-28T08:44:28Z) - A Weighted K-Center Algorithm for Data Subset Selection [70.49696246526199]
サブセット選択は、トレーニングデータの小さな部分を特定する上で重要な役割を果たす、基本的な問題である。
我々は,k中心および不確かさサンプリング目的関数の重み付け和に基づいて,サブセットを計算する新しい係数3近似アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-17T04:41:07Z) - Transferable Deep Clustering Model [14.073783373395196]
本稿では,データサンプルの分布に応じてクラスタセントロイドを自動的に適応できる,転送可能な新しいディープクラスタリングモデルを提案する。
提案手法では, 試料との関係を計測することで, センチロイドを適応できる新しい注意型モジュールを提案する。
合成および実世界の両方のデータセットに対する実験結果から,提案した移動学習フレームワークの有効性と有効性を示す。
論文 参考訳(メタデータ) (2023-10-07T23:35:17Z) - GraphLearner: Graph Node Clustering with Fully Learnable Augmentation [76.63963385662426]
Contrastive Deep Graph Clustering (CDGC)は、異なるクラスタにノードをグループ化するために、コントラスト学習のパワーを活用する。
我々は、GraphLearnerと呼ばれる、完全学習可能な拡張を備えたグラフノードクラスタリングを提案する。
学習可能な拡張器を導入し、CDGCのための高品質でタスク固有の拡張サンプルを生成する。
論文 参考訳(メタデータ) (2022-12-07T10:19:39Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Semantics-Depth-Symbiosis: Deeply Coupled Semi-Supervised Learning of
Semantics and Depth [83.94528876742096]
我々は,意味的セグメンテーションと深さ推定という2つの密なタスクのMTL問題に取り組み,クロスチャネル注意モジュール(CCAM)と呼ばれる新しいアテンションモジュールを提案する。
次に,AffineMixと呼ばれる予測深度を用いた意味分節タスクのための新しいデータ拡張と,ColorAugと呼ばれる予測セマンティクスを用いた単純な深度増分を定式化する。
最後に,提案手法の性能向上をCityscapesデータセットで検証し,深度と意味に基づく半教師付きジョイントモデルにおける最先端結果の実現を支援する。
論文 参考訳(メタデータ) (2022-06-21T17:40:55Z) - Deep Attention-guided Graph Clustering with Dual Self-supervision [49.040136530379094]
デュアル・セルフ・スーパービジョン(DAGC)を用いたディープアテンション誘導グラフクラスタリング法を提案する。
我々は,三重項Kulback-Leibler分散損失を持つソフトな自己スーパービジョン戦略と,擬似的な監督損失を持つハードな自己スーパービジョン戦略からなる二重自己スーパービジョンソリューションを開発する。
提案手法は6つのベンチマークデータセットにおける最先端の手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-10T06:53:03Z) - Deep Conditional Gaussian Mixture Model for Constrained Clustering [7.070883800886882]
制約付きクラスタリングは、部分的にラベル付けされたデータの増加量に関する事前情報を利用することができる。
本稿では、直感的で解釈可能で、勾配変動推論の枠組みで効率的に訓練できる制約付きクラスタリングのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-11T13:38:09Z) - Learning the Precise Feature for Cluster Assignment [39.320210567860485]
表現学習とクラスタリングを1つのパイプラインに初めて統合するフレームワークを提案する。
提案フレームワークは,近年開発された生成モデルを用いて,本質的な特徴を学習する能力を活用している。
実験の結果,提案手法の性能は,最先端の手法よりも優れているか,少なくとも同等であることがわかった。
論文 参考訳(メタデータ) (2021-06-11T04:08:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。