論文の概要: Rethinking Robust Representation Learning Under Fine-grained Noisy Faces
- arxiv url: http://arxiv.org/abs/2208.04352v1
- Date: Mon, 8 Aug 2022 18:18:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-10 12:40:38.403378
- Title: Rethinking Robust Representation Learning Under Fine-grained Noisy Faces
- Title(参考訳): きめ細かい雑音下でのロバスト表現学習の再考
- Authors: Bingqi Ma, Guanglu Song, Boxiao Liu, and Yu Liu
- Abstract要約: 我々は、N-ID|KC-クラスタよりもきめ細かな方法で、各クラスのノイズタイプを再構成する。
ノイズロバスト表現学習の主な障壁は、異なるN,K,Cの下でのアルゴリズムの柔軟性である。
本研究では,巨大雑音面の潜伏空間を正確に記述する最適超平面を求めるために,Evolving Sub-centers Learning という新しい手法を提案する。
- 参考スコア(独自算出の注目度): 8.813608801245008
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning robust feature representation from large-scale noisy faces stands
out as one of the key challenges in high-performance face recognition. Recent
attempts have been made to cope with this challenge by alleviating the
intra-class conflict and inter-class conflict. However, the unconstrained noise
type in each conflict still makes it difficult for these algorithms to perform
well. To better understand this, we reformulate the noise type of each class in
a more fine-grained manner as N-identities|K^C-clusters. Different types of
noisy faces can be generated by adjusting the values of \nkc. Based on this
unified formulation, we found that the main barrier behind the noise-robust
representation learning is the flexibility of the algorithm under different N,
K, and C. For this potential problem, we propose a new method, named Evolving
Sub-centers Learning~(ESL), to find optimal hyperplanes to accurately describe
the latent space of massive noisy faces. More specifically, we initialize M
sub-centers for each class and ESL encourages it to be automatically aligned to
N-identities|K^C-clusters faces via producing, merging, and dropping
operations. Images belonging to the same identity in noisy faces can
effectively converge to the same sub-center and samples with different
identities will be pushed away. We inspect its effectiveness with an elaborate
ablation study on the synthetic noisy dataset with different N, K, and C.
Without any bells and whistles, ESL can achieve significant performance gains
over state-of-the-art methods on large-scale noisy faces
- Abstract(参考訳): 大規模雑音面から頑健な特徴表現を学習することは、ハイパフォーマンスな顔認識における重要な課題の1つである。
近年,クラス内紛争とクラス間紛争を緩和し,この問題に対処する試みが行われている。
しかし、各コンフリクトにおける制約のないノイズタイプは、これらのアルゴリズムがうまく機能することを困難にしている。
これを理解するため、各クラスのノイズタイプを n-identities|k^c-clusters のようによりきめ細かい方法で再構成する。
異なる種類の雑音面は \nkc の値を調整することで生成される。
この統一的な定式化に基づいて,ノイズロスト表現学習の背後にある主な障壁は,異なるN,K,Cの下でのアルゴリズムの柔軟性であることがわかった。
具体的には、クラス毎にMサブセンタを初期化し、ESLは生成、マージ、停止操作を通じてNアイデンティティ|K^Cクラスタの面に自動的に整列することを推奨する。
ノイズのある顔の同一のアイデンティティに属する画像は、効果的に同じサブセンターに収束し、異なるアイデンティティを持つサンプルが押し出される。
我々はその効果を,N,K,Cの異なる合成ノイズデータセットの精巧なアブレーション研究により検証した。ベルとホイッスルがなければ,ESLは大規模雑音面上での最先端の手法よりも顕著な性能向上を達成できる。
関連論文リスト
- CSGNN: Conquering Noisy Node labels via Dynamic Class-wise Selection [45.83801634434111]
CSGNNと呼ばれるグラフニューラルネットワークのための新しいクラスワイズ選択法を提案する。
クラス不均衡問題に対処するため,クリーンノードの識別にクラスタリング手法を活用する動的クラスワイズ選択機構を導入する。
暗記効果の概念に基づくノイズラベルの問題を軽減するため、CSGNNはノイズラベルよりもクリーンノードからの学習を優先する。
論文 参考訳(メタデータ) (2023-11-20T00:57:30Z) - Denoising Diffusion Semantic Segmentation with Mask Prior Modeling [61.73352242029671]
本稿では,従来の識別的アプローチのセマンティックセグメンテーション品質を,デノナイズ拡散生成モデルでモデル化したマスクを用いて改善することを提案する。
市販セグメンタを用いた先行モデルの評価を行い,ADE20KとCityscapesの実験結果から,本手法が競争力のある定量的性能を実現することを示す。
論文 参考訳(メタデータ) (2023-06-02T17:47:01Z) - Exploring Efficient Asymmetric Blind-Spots for Self-Supervised Denoising in Real-World Scenarios [44.31657750561106]
実世界のシナリオにおけるノイズはしばしば空間的に相関しており、多くの自己教師型アルゴリズムは性能が良くない。
盲点サイズを自由に調整できる非対称可変ブラインド・スポットネットワーク(AT-BSN)を提案する。
提案手法は最先端技術を実現し,計算オーバーヘッドや視覚効果の観点から,他の自己教師付きアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-29T15:19:01Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Multiple Kernel Clustering with Dual Noise Minimization [56.009011016367744]
マルチカーネルクラスタリング(MKC)は、ベースカーネルから補完的な情報を統合することでデータをグループ化する。
本稿では,双対雑音を厳密に定義し,パラメータフリーなMKCアルゴリズムを提案する。
二重ノイズはブロック対角構造を汚染し,クラスタリング性能の劣化を招き,CノイズはNノイズよりも強い破壊を示す。
論文 参考訳(メタデータ) (2022-07-13T08:37:42Z) - Learning with Group Noise [106.56780716961732]
グループノイズを用いた学習のための新しいマックスマッチング手法を提案する。
いくつかの学習パラダイムの領域における実世界のデータセットのレンジのパフォーマンスは、Max-Matchingの有効性を示している。
論文 参考訳(メタデータ) (2021-03-17T06:57:10Z) - Seeking the Shape of Sound: An Adaptive Framework for Learning
Voice-Face Association [94.7030305679589]
上記の課題を共同で解決するための新しい枠組みを提案します。
我々はモダリティアライメントプロセスにグローバル損失を導入する。
提案メソッドは、複数の設定で以前の方法よりも優れています。
論文 参考訳(メタデータ) (2021-03-12T14:10:48Z) - Learning Robust Representation for Clustering through Locality
Preserving Variational Discriminative Network [16.259673823482665]
Variational Deep Embeddingは、さまざまなクラスタリングタスクで大きな成功を収めます。
VaDEは,1)入力ノイズに弱い,2)隣接するデータポイント間の局所性情報を無視する,という2つの問題に悩まされている。
強固な埋め込み判別器と局所構造制約によりvadeを改善する共同学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-25T02:31:55Z) - Robust Learning under Strong Noise via SQs [5.9256596453465225]
各SQ学習可能なクラスは、幅広いノイズモデルに対して、OPT + $epsilon Misilon誤分類誤差を持つ効率的な学習アルゴリズムを許容することを示す。
この設定は、既知の雑音確率を持つRCNの下で広く研究されている問題分類を大幅に一般化する。
論文 参考訳(メタデータ) (2020-10-18T21:02:26Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。