論文の概要: Rethinking Robust Representation Learning Under Fine-grained Noisy Faces
- arxiv url: http://arxiv.org/abs/2208.04352v1
- Date: Mon, 8 Aug 2022 18:18:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-10 12:40:38.403378
- Title: Rethinking Robust Representation Learning Under Fine-grained Noisy Faces
- Title(参考訳): きめ細かい雑音下でのロバスト表現学習の再考
- Authors: Bingqi Ma, Guanglu Song, Boxiao Liu, and Yu Liu
- Abstract要約: 我々は、N-ID|KC-クラスタよりもきめ細かな方法で、各クラスのノイズタイプを再構成する。
ノイズロバスト表現学習の主な障壁は、異なるN,K,Cの下でのアルゴリズムの柔軟性である。
本研究では,巨大雑音面の潜伏空間を正確に記述する最適超平面を求めるために,Evolving Sub-centers Learning という新しい手法を提案する。
- 参考スコア(独自算出の注目度): 8.813608801245008
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning robust feature representation from large-scale noisy faces stands
out as one of the key challenges in high-performance face recognition. Recent
attempts have been made to cope with this challenge by alleviating the
intra-class conflict and inter-class conflict. However, the unconstrained noise
type in each conflict still makes it difficult for these algorithms to perform
well. To better understand this, we reformulate the noise type of each class in
a more fine-grained manner as N-identities|K^C-clusters. Different types of
noisy faces can be generated by adjusting the values of \nkc. Based on this
unified formulation, we found that the main barrier behind the noise-robust
representation learning is the flexibility of the algorithm under different N,
K, and C. For this potential problem, we propose a new method, named Evolving
Sub-centers Learning~(ESL), to find optimal hyperplanes to accurately describe
the latent space of massive noisy faces. More specifically, we initialize M
sub-centers for each class and ESL encourages it to be automatically aligned to
N-identities|K^C-clusters faces via producing, merging, and dropping
operations. Images belonging to the same identity in noisy faces can
effectively converge to the same sub-center and samples with different
identities will be pushed away. We inspect its effectiveness with an elaborate
ablation study on the synthetic noisy dataset with different N, K, and C.
Without any bells and whistles, ESL can achieve significant performance gains
over state-of-the-art methods on large-scale noisy faces
- Abstract(参考訳): 大規模雑音面から頑健な特徴表現を学習することは、ハイパフォーマンスな顔認識における重要な課題の1つである。
近年,クラス内紛争とクラス間紛争を緩和し,この問題に対処する試みが行われている。
しかし、各コンフリクトにおける制約のないノイズタイプは、これらのアルゴリズムがうまく機能することを困難にしている。
これを理解するため、各クラスのノイズタイプを n-identities|k^c-clusters のようによりきめ細かい方法で再構成する。
異なる種類の雑音面は \nkc の値を調整することで生成される。
この統一的な定式化に基づいて,ノイズロスト表現学習の背後にある主な障壁は,異なるN,K,Cの下でのアルゴリズムの柔軟性であることがわかった。
具体的には、クラス毎にMサブセンタを初期化し、ESLは生成、マージ、停止操作を通じてNアイデンティティ|K^Cクラスタの面に自動的に整列することを推奨する。
ノイズのある顔の同一のアイデンティティに属する画像は、効果的に同じサブセンターに収束し、異なるアイデンティティを持つサンプルが押し出される。
我々はその効果を,N,K,Cの異なる合成ノイズデータセットの精巧なアブレーション研究により検証した。ベルとホイッスルがなければ,ESLは大規模雑音面上での最先端の手法よりも顕著な性能向上を達成できる。
関連論文リスト
- Learning with Open-world Noisy Data via Class-independent Margin in Dual Representation Space [25.472718931422307]
オープンワールドノイズを頑健に扱える新しい二空間共同学習法を提案する。
CIFAR80Nの平均精度は4.55%、AUROCは6.17%向上した。
論文 参考訳(メタデータ) (2025-01-19T14:09:04Z) - Robust Self-Paced Hashing for Cross-Modal Retrieval with Noisy Labels [20.281019559967028]
クロスモーダルハッシュ (CMH) は, 大規模データの保存コストが低く, 計算効率が高いことから, クロスモーダル検索の手法として人気がある。
既存のほとんどの手法では、マルチモーダルデータが正しくラベル付けされていると暗黙的に仮定している。
雑音ラベル付きロバストセルフペーストハッシュ (RSHNL) と呼ばれる新しい認知的クロスモーダル検索手法を提案する。
論文 参考訳(メタデータ) (2025-01-03T08:41:34Z) - Enhance Vision-Language Alignment with Noise [59.2608298578913]
本研究では,凍結モデルがカスタマイズノイズによって微調整可能であるか検討する。
ビジュアルエンコーダとテキストエンコーダの両方にノイズを注入することでCLIPを微調整できる正インセンティブノイズ(PiNI)を提案する。
論文 参考訳(メタデータ) (2024-12-14T12:58:15Z) - Denoising Diffusion Semantic Segmentation with Mask Prior Modeling [61.73352242029671]
本稿では,従来の識別的アプローチのセマンティックセグメンテーション品質を,デノナイズ拡散生成モデルでモデル化したマスクを用いて改善することを提案する。
市販セグメンタを用いた先行モデルの評価を行い,ADE20KとCityscapesの実験結果から,本手法が競争力のある定量的性能を実現することを示す。
論文 参考訳(メタデータ) (2023-06-02T17:47:01Z) - Exploring Efficient Asymmetric Blind-Spots for Self-Supervised Denoising in Real-World Scenarios [44.31657750561106]
実世界のシナリオにおけるノイズはしばしば空間的に相関しており、多くの自己教師型アルゴリズムは性能が良くない。
盲点サイズを自由に調整できる非対称可変ブラインド・スポットネットワーク(AT-BSN)を提案する。
提案手法は最先端技術を実現し,計算オーバーヘッドや視覚効果の観点から,他の自己教師付きアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-29T15:19:01Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Multiple Kernel Clustering with Dual Noise Minimization [56.009011016367744]
マルチカーネルクラスタリング(MKC)は、ベースカーネルから補完的な情報を統合することでデータをグループ化する。
本稿では,双対雑音を厳密に定義し,パラメータフリーなMKCアルゴリズムを提案する。
二重ノイズはブロック対角構造を汚染し,クラスタリング性能の劣化を招き,CノイズはNノイズよりも強い破壊を示す。
論文 参考訳(メタデータ) (2022-07-13T08:37:42Z) - Learning with Group Noise [106.56780716961732]
グループノイズを用いた学習のための新しいマックスマッチング手法を提案する。
いくつかの学習パラダイムの領域における実世界のデータセットのレンジのパフォーマンスは、Max-Matchingの有効性を示している。
論文 参考訳(メタデータ) (2021-03-17T06:57:10Z) - Robust Learning under Strong Noise via SQs [5.9256596453465225]
各SQ学習可能なクラスは、幅広いノイズモデルに対して、OPT + $epsilon Misilon誤分類誤差を持つ効率的な学習アルゴリズムを許容することを示す。
この設定は、既知の雑音確率を持つRCNの下で広く研究されている問題分類を大幅に一般化する。
論文 参考訳(メタデータ) (2020-10-18T21:02:26Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。