論文の概要: Structure-Aware Face Clustering on a Large-Scale Graph with
$\bf{10^{7}}$ Nodes
- arxiv url: http://arxiv.org/abs/2103.13225v1
- Date: Wed, 24 Mar 2021 14:34:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-25 13:56:11.775123
- Title: Structure-Aware Face Clustering on a Large-Scale Graph with
$\bf{10^{7}}$ Nodes
- Title(参考訳): Nodes$\bf{10^{7}}を持つ大規模グラフ上の構造を考慮した顔クラスタリング
- Authors: Shuai Shen, Wanhua Li, Zheng Zhu, Guan Huang, Dalong Du, Jiwen Lu, Jie
Zhou
- Abstract要約: 大規模トレーニングデータのパワーを探索する構造保存サブグラフサンプリング戦略を提案する。
STAR-FCは310秒以内に部分的なMS1Mで91.97Fスコアを得る。
- 参考スコア(独自算出の注目度): 76.6700928596238
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face clustering is a promising method for annotating unlabeled face images.
Recent supervised approaches have boosted the face clustering accuracy greatly,
however their performance is still far from satisfactory. These methods can be
roughly divided into global-based and local-based ones. Global-based methods
suffer from the limitation of training data scale, while local-based ones are
difficult to grasp the whole graph structure information and usually take a
long time for inference. Previous approaches fail to tackle these two
challenges simultaneously. To address the dilemma of large-scale training and
efficient inference, we propose the STructure-AwaRe Face Clustering (STAR-FC)
method. Specifically, we design a structure-preserved subgraph sampling
strategy to explore the power of large-scale training data, which can increase
the training data scale from ${10^{5}}$ to ${10^{7}}$. During inference, the
STAR-FC performs efficient full-graph clustering with two steps: graph parsing
and graph refinement. And the concept of node intimacy is introduced in the
second step to mine the local structural information. The STAR-FC gets 91.97
pairwise F-score on partial MS1M within 310s which surpasses the
state-of-the-arts. Furthermore, we are the first to train on very large-scale
graph with 20M nodes, and achieve superior inference results on 12M testing
data. Overall, as a simple and effective method, the proposed STAR-FC provides
a strong baseline for large-scale face clustering. Code is available at
\url{https://sstzal.github.io/STAR-FC/}.
- Abstract(参考訳): 顔クラスタリングは、ラベルのない顔画像に注釈を付ける有望な方法である。
最近の教師付きアプローチは、顔クラスタリングの精度を大幅に向上させたが、その性能はまだ十分ではない。
これらの手法は、大まかにグローバルベースとローカルベースに分けられる。
グローバルベースの手法は、トレーニングデータスケールの制限に苦しむ一方で、ローカルベースの手法では、グラフ構造情報全体の把握が難しく、通常は推論に時間がかかります。
以前のアプローチでは,これら2つの課題を同時に取り組まなかった。
大規模トレーニングと効率的な推論のジレンマに対処するために,STructure-AwaRe Face Clustering (STAR-FC)法を提案する。
具体的には、大規模トレーニングデータのパワーを探索するために、構造保存されたサブグラフサンプリング戦略を設計し、トレーニングデータスケールを${10^{5}}$から${10^{7}}$に拡大する。
推論中、star-fcはグラフ解析とグラフリファインメントの2ステップで効率的なフルグラフクラスタリングを実行する。
ノード親密性の概念は、局所構造情報をマイニングする第2ステップで導入される。
STAR-FCは310秒以内に部分的なMS1Mで91.97Fスコアを得る。
さらに,我々は,2000万ノードからなる大規模グラフのトレーニングを初めて行い,12Mテストデータに対して優れた推測結果を得た。
全体として、シンプルで効果的な方法として、提案したSTAR-FCは大規模な顔クラスタリングのための強力なベースラインを提供する。
コードは \url{https://sstzal.github.io/STAR-FC/} で入手できる。
関連論文リスト
- Self-Supervised Contrastive Graph Clustering Network via Structural Information Fusion [15.293684479404092]
CGCNと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,事前学習プロセスにコントラスト信号と深部構造情報を導入している。
本手法は,複数の実世界のグラフデータセットに対して実験的に検証されている。
論文 参考訳(メタデータ) (2024-08-08T09:49:26Z) - Amplify Graph Learning for Recommendation via Sparsity Completion [16.32861024767423]
グラフ学習モデルは、協調フィルタリング(CF)ベースのレコメンデーションシステムに広くデプロイされている。
データ疎度の問題により、元の入力のグラフ構造は潜在的な肯定的な嗜好エッジを欠いている。
AGL-SC(Amplify Graph Learning framework)を提案する。
論文 参考訳(メタデータ) (2024-06-27T08:26:20Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - From Cluster Assumption to Graph Convolution: Graph-based Semi-Supervised Learning Revisited [51.24526202984846]
グラフベースの半教師付き学習(GSSL)は、長い間ホットな研究トピックだった。
グラフ畳み込みネットワーク (GCN) は, 有望な性能を示す主要な技術となっている。
論文 参考訳(メタデータ) (2023-09-24T10:10:21Z) - Dink-Net: Neural Clustering on Large Graphs [59.10189693120368]
ディープグラフクラスタリング法 (Dink-Net) は, 拡張と縮小という概念を用いて提案される。
ノードを識別することにより、拡張によって劣化しても、表現は自己教師された方法で学習される。
クラスタリング分布は、提案したクラスタ拡張損失とクラスタ縮小損失を最小化することにより最適化される。
ランナアップと比較して、Dink-Net 9.62%は1100万ノードと16億エッジを持つogbn-papers100MデータセットでNMIの改善を実現している。
論文 参考訳(メタデータ) (2023-05-28T15:33:24Z) - Fine-grained Graph Learning for Multi-view Subspace Clustering [2.4094285826152593]
マルチビューサブスペースクラスタリング(FGL-MSC)のためのきめ細かいグラフ学習フレームワークを提案する。
主な課題は、クラスタリングタスクに適合する学習グラフを生成しながら、微細な融合重みを最適化する方法である。
8つの実世界のデータセットの実験では、提案されたフレームワークは最先端の手法に匹敵する性能を示している。
論文 参考訳(メタデータ) (2022-01-12T18:00:29Z) - Git: Clustering Based on Graph of Intensity Topology [25.679620842010422]
我々は、新しいクラスタリングアルゴリズムGIT(textbfIntensity textbfTopologyのtextbfGraphに基づくクラスタリング)を提案する。
高速な局所クラスタ検出、堅牢なトポグラフの構築、エッジカットにより、GITは魅力的なARISE性能を示す。
論文 参考訳(メタデータ) (2021-10-04T09:29:43Z) - Structured Graph Learning for Clustering and Semi-supervised
Classification [74.35376212789132]
データの局所構造とグローバル構造の両方を保存するためのグラフ学習フレームワークを提案する。
本手法は, サンプルの自己表現性を利用して, 局所構造を尊重するために, 大域的構造と適応的隣接アプローチを捉える。
我々のモデルは、ある条件下でのカーネルk平均法とk平均法の組合せと等価である。
論文 参考訳(メタデータ) (2020-08-31T08:41:20Z) - Learning to Cluster Faces via Confidence and Connectivity Estimation [136.5291151775236]
重複する部分グラフを多数必要とせず,完全に学習可能なクラスタリングフレームワークを提案する。
提案手法はクラスタリングの精度を大幅に向上させ,その上で訓練した認識モデルの性能を向上させるが,既存の教師付き手法に比べて桁違いに効率的である。
論文 参考訳(メタデータ) (2020-04-01T13:39:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。