論文の概要: Unsupervised collaborative learning using privileged information
- arxiv url: http://arxiv.org/abs/2103.13145v1
- Date: Wed, 24 Mar 2021 12:43:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-25 16:21:24.243309
- Title: Unsupervised collaborative learning using privileged information
- Title(参考訳): 特権情報を用いた教師なし協調学習
- Authors: Yohan Foucade and Youn\`es Bennani
- Abstract要約: 本稿では,Privileged Informationパラダイムを用いた学習に基づく協調クラスタリングについて述べる。
アルゴリズムと最先端の実装との比較により,提案手法を用いたコラボレーションプロセスの改善が示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the collaborative clustering framework, the hope is that by combining
several clustering solutions, each one with its own bias and imperfections, one
will get a better overall solution. The goal is that each local computation,
quite possibly applied to distinct data sets, benefits from the work done by
the other collaborators. This article is dedicated to collaborative clustering
based on the Learning Using Privileged Information paradigm. Local algorithms
weight incoming information at the level of each observation, depending on the
confidence level of the classification of that observation. A comparison
between our algorithm and state of the art implementations shows improvement of
the collaboration process using the proposed approach.
- Abstract(参考訳): 協調的なクラスタリングフレームワークでは、複数のクラスタリングソリューションを組み合わせることで、それぞれに独自のバイアスと欠陥があり、全体的なソリューションがより良くなることを期待しています。
目標は、各ローカル計算が、おそらく異なるデータセットに適用され、他の協力者による作業の恩恵を受けることである。
本稿では,Privileged Informationパラダイムを用いた学習に基づく協調クラスタリングについて述べる。
局所アルゴリズムは、観測の分類の信頼性レベルに応じて、各観測のレベルで入ってくる情報を重み付けする。
本手法と技術実装の現状を比較すると,提案手法によるコラボレーションプロセスの改善が示されている。
関連論文リスト
- Dynamically Weighted Federated k-Means [0.0]
フェデレートされたクラスタリングにより、複数のデータソースが協力してデータをクラスタリングし、分散化とプライバシ保護を維持できる。
我々は,ロイドのk-meansクラスタリング法に基づいて,動的に重み付けされたk-means (DWF k-means) という新しいクラスタリングアルゴリズムを提案する。
我々は、クラスタリングスコア、精度、およびv尺度の観点から、アルゴリズムの性能を評価するために、複数のデータセットとデータ分散設定の実験を行う。
論文 参考訳(メタデータ) (2023-10-23T12:28:21Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Personalized Federated Learning with Feature Alignment and Classifier
Collaboration [13.320381377599245]
データの不均一性は、フェデレートラーニングにおける最も難しい問題の1つです。
ディープニューラルネットワークベースのタスクにおけるそのようなアプローチの1つは、共有された特徴表現を採用し、クライアントごとにカスタマイズされた分類子ヘッドを学ぶことである。
本研究では,グローバルなセマンティックな知識を活用して,より優れた表現を学習することで,ローカル・グローバルな特徴アライメントを実現する。
論文 参考訳(メタデータ) (2023-06-20T19:58:58Z) - MCoCo: Multi-level Consistency Collaborative Multi-view Clustering [15.743056561394612]
マルチビュークラスタリングは、異なるビューからの一貫性のある情報を調べて、クラスタリングをガイドする。
マルチビュークラスタリングのための新しいMCoCo(Multi-level Consistency Collaborative Learning framework)を提案する。
論文 参考訳(メタデータ) (2023-02-26T16:08:53Z) - Decentralized adaptive clustering of deep nets is beneficial for client
collaboration [0.7012240324005975]
分散ピアツーピア環境における個別のディープラーニングモデルを学習する際の課題について検討する。
我々のコントリビューションは、各クライアントがローカルタスクの類似度推定に基づいて有益な協調を見出すアルゴリズムである。
論文 参考訳(メタデータ) (2022-06-17T15:38:31Z) - On the Convergence of Clustered Federated Learning [57.934295064030636]
統合学習システムでは、例えばモバイルデバイスや組織参加者といったクライアントは通常、個人の好みや行動パターンが異なる。
本稿では,クライアントグループと各クライアントを統一最適化フレームワークで活用する,新しい重み付きクライアントベースクラスタリングFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-13T02:39:19Z) - Leveraging Ensembles and Self-Supervised Learning for Fully-Unsupervised
Person Re-Identification and Text Authorship Attribution [77.85461690214551]
完全ラベル付きデータからの学習は、Person Re-IdentificationやText Authorship Attributionなどのマルチメディアフォレスト問題において困難である。
近年の自己教師型学習法は,基礎となるクラスに意味的差異が有る場合に,完全ラベル付きデータを扱う際に有効であることが示されている。
本研究では,異なるクラスからのサンプルが顕著に多様性を持っていない場合でも,ラベルのないデータから学習できるようにすることにより,個人再認識とテキストオーサシップの属性に対処する戦略を提案する。
論文 参考訳(メタデータ) (2022-02-07T13:08:11Z) - A Field Guide to Federated Optimization [161.3779046812383]
フェデレートされた学習と分析は、分散化されたデータからモデル(あるいは統計)を協調的に学習するための分散アプローチである。
本稿では、フェデレート最適化アルゴリズムの定式化、設計、評価、分析に関する勧告とガイドラインを提供する。
論文 参考訳(メタデータ) (2021-07-14T18:09:08Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Representation Learning for Clustering via Building Consensus [3.7434090710577608]
Unsupervised Representation Learning (ConCURL) を用いたコンセンサスクラスタリングの提案
ConCURLは5つのイメージデータセットのうち4つで、最先端のメソッドよりもクラスタリングパフォーマンスが向上する。
実世界のクラスタリングタスクにおける課題を反映するために,クラスタリングの評価手順を拡張した。
論文 参考訳(メタデータ) (2021-05-04T05:04:03Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。