論文の概要: Latent Structure Emergence in Diffusion Models via Confidence-Based Filtering
- arxiv url: http://arxiv.org/abs/2602.06155v1
- Date: Thu, 05 Feb 2026 19:48:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.085485
- Title: Latent Structure Emergence in Diffusion Models via Confidence-Based Filtering
- Title(参考訳): 信頼度に基づくフィルタリングによる拡散モデルにおける潜時構造創発
- Authors: Wei Wei, Yizhou Zeng, Kuntian Chen, Sophie Langer, Mariia Seleznova, Hung-Hsu Chou,
- Abstract要約: 学習済み分類器に割り当てられた信頼度スコアのレンズを用いて, 潜伏構造の出現について検討した。
これらの結果から, 高信頼度サンプルを生成する初期ノイズシードに注意を向けることによって, クラス分離性の顕著さが明らかとなった。
そこで本研究では,信頼度に基づくフィルタリングが,ガイダンスに基づく手法の代替として条件付き生成を実現する方法について論じる。
- 参考スコア(独自算出の注目度): 7.521436833565588
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models rely on a high-dimensional latent space of initial noise seeds, yet it remains unclear whether this space contains sufficient structure to predict properties of the generated samples, such as their classes. In this work, we investigate the emergence of latent structure through the lens of confidence scores assigned by a pre-trained classifier to generated samples. We show that while the latent space appears largely unstructured when considering all noise realizations, restricting attention to initial noise seeds that produce high-confidence samples reveals pronounced class separability. By comparing class predictability across noise subsets of varying confidence and examining the class separability of the latent space, we find evidence of class-relevant latent structure that becomes observable only under confidence-based filtering. As a practical implication, we discuss how confidence-based filtering enables conditional generation as an alternative to guidance-based methods.
- Abstract(参考訳): 拡散モデルは初期ノイズシードの高次元潜在空間に依存しているが、この空間がそれらのクラスのような生成されたサンプルの特性を予測するのに十分な構造を持っているかどうかは不明である。
本研究では, 事前学習した分類器に割り当てられた信頼度スコアのレンズを用いて, 潜伏構造の出現について検討する。
これらの結果から, 高信頼度サンプルを生成する初期ノイズシードに注意を向けることによって, クラス分離性の顕著さが明らかとなった。
信頼度が異なる雑音部分集合間のクラス予測可能性を比較し、潜伏空間のクラス分離性を調べることにより、信頼に基づくフィルタリングでのみ観測可能なクラス関連潜伏構造の証拠を見出す。
そこで本研究では,信頼度に基づくフィルタリングが,ガイダンスに基づく手法の代替として条件付き生成を実現する方法について論じる。
関連論文リスト
- Beyond Predictive Uncertainty: Reliable Representation Learning with Structural Constraints [0.3948325938742681]
信頼性は、学習した表現そのものの第一級の性質と見なされるべきである。
本稿では,表現レベルの不確実性を明示的にモデル化する信頼性のある表現学習のための原則的フレームワークを提案する。
提案手法では,不確実性を考慮した正規化が直接表現空間に導入され,予測的だけでなく,安定的で,校正的であり,ノイズや構造的摂動に対して頑健な表現が奨励される。
論文 参考訳(メタデータ) (2026-01-22T18:19:52Z) - Acoustic scattering AI for non-invasive object classifications: A case study on hair assessment [2.5074524384639214]
本稿では,音響散乱を用いた新しい非侵襲物体分類手法を提案する。
我々は,AIによる深層学習に基づく音声分類を用いて,髪型と湿気を分類する。
その結果, 音響散乱は, 視覚的分類に代わる, プライバシー保護・非接触的手法として注目された。
論文 参考訳(メタデータ) (2025-06-17T03:25:38Z) - NatADiff: Adversarial Boundary Guidance for Natural Adversarial Diffusion [25.40185694215312]
敵対的なサンプルは「学習された多様体の不規則性」を深層学習モデルによって悪用し、誤分類を引き起こす。
そこで我々は,自然対向サンプルを生成するために,デノナイズ拡散を利用した対向サンプリング方式であるNatADiffを提案する。
NatADiffは、モデル間でより効果的に転送するだけでなく、自然に発生するテストタイムエラーに忠実に類似する逆のサンプルを生成する。
論文 参考訳(メタデータ) (2025-05-27T09:23:09Z) - Studying Classifier(-Free) Guidance From a Classifier-Centric Perspective [100.54185280153753]
分類器なし誘導と分類器なし誘導の両方が,微分拡散軌道を決定境界から遠ざけることによって条件付き生成を実現することがわかった。
本研究では,フローマッチングをベースとした汎用的な後処理ステップを提案し,事前学習した復調拡散モデルに対する学習分布と実データ分布とのギャップを小さくする。
論文 参考訳(メタデータ) (2025-03-13T17:59:59Z) - Confidence-aware Denoised Fine-tuning of Off-the-shelf Models for Certified Robustness [56.2479170374811]
我々はFT-CADIS(Fun Fine-Tuning with Confidence-Aware Denoized Image Selection)を紹介する。
FT-CADISは、既成の分類器の信頼性が、視覚的平滑化中の幻覚像を効果的に識別できるという観察に着想を得たものである。
様々なベンチマークにおいて、すべての$ell$-adversary半径にわたる偏微分平滑化法のうち、最先端の証明されたロバスト性を確立している。
論文 参考訳(メタデータ) (2024-11-13T09:13:20Z) - AFD: Mitigating Feature Gap for Adversarial Robustness by Feature Disentanglement [56.90364259986057]
逆方向の微調整法は、逆方向の訓練方法で事前訓練されたモデルを微調整することにより、逆方向の強靭性を高める。
本稿では,特定の潜伏する特徴を明示的にモデル化し,除去するためのアンタングルメントに基づくアプローチを提案する。
提案手法は,既存の対戦型微調整法や対戦型トレーニングベースラインを超越した手法である。
論文 参考訳(メタデータ) (2024-01-26T08:38:57Z) - Understanding Noise-Augmented Training for Randomized Smoothing [14.061680807550722]
ランダムスムーシング(Randomized smoothing)は、敵攻撃に対する証明可能な堅牢性を保証する技術である。
より強い分布仮定を作らずに、雑音増強の訓練を受けた予測者から利益を期待できないことを示す。
本分析は, ランダム化平滑化の実践的展開に直接的な意味を持つ。
論文 参考訳(メタデータ) (2023-05-08T14:46:34Z) - Centrality and Consistency: Two-Stage Clean Samples Identification for
Learning with Instance-Dependent Noisy Labels [87.48541631675889]
本稿では,2段階のクリーンサンプル識別手法を提案する。
まず,クリーンサンプルの早期同定にクラスレベルの特徴クラスタリング手法を用いる。
次に, 基底真理クラス境界に近い残余のクリーンサンプルについて, 一貫性に基づく新しい分類法を提案する。
論文 参考訳(メタデータ) (2022-07-29T04:54:57Z) - Weakly Supervised Representation Learning with Sparse Perturbations [82.39171485023276]
潜伏変数のスパース摂動によって生じる観測の監督が弱い場合、未知の連続潜伏分布の下で識別が達成可能であることを示す。
本稿では,この理論に基づく自然な推定手法を提案し,それを低次元の合成および画像に基づく実験で説明する。
論文 参考訳(メタデータ) (2022-06-02T15:30:07Z) - Towards an Intrinsic Definition of Robustness for a Classifier [4.205692673448206]
検証セットにおける試料のロバスト性半径の平均化は統計的に弱い尺度であることを示す。
その代わりに, 試料の難易度に応じて, 試料の重要性を重み付けすることを提案する。
提案したスコアが,サンプルの選択にほとんど依存せず,分類器のロバスト性を測定することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-09T07:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。