論文の概要: DiffInf: Influence-Guided Diffusion for Supervision Alignment in Facial Attribute Learning
- arxiv url: http://arxiv.org/abs/2603.06399v1
- Date: Fri, 06 Mar 2026 15:43:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:46.10721
- Title: DiffInf: Influence-Guided Diffusion for Supervision Alignment in Facial Attribute Learning
- Title(参考訳): DiffInf: 顔面属性学習における重み付けのための影響誘導拡散
- Authors: Basudha Pal, Rama Chellappa,
- Abstract要約: 顔属性学習におけるアノテーションの不整合を緩和するための自己影響誘導拡散フレームワークであるDiffInfを紹介する。
以上の結果から,画像レベルでのアノテーションの不整合の修復は,分布範囲を犠牲にすることなく,下流の顔属性の分類を向上させることが示唆された。
- 参考スコア(独自算出の注目度): 32.811841537575695
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Facial attribute classification relies on large-scale annotated datasets in which many traits, such as age and expression, are inherently ambiguous and continuous but are discretized into categorical labels. Annotation inconsistencies arise from subjectivity and visual confounders such as pose, illumination, expression, and demographic variation, creating mismatch between images and assigned labels. These inconsistencies introduce supervision errors that impair representation learning and degrade downstream prediction. We introduce DiffInf, a self-influence--guided diffusion framework for mitigating annotation inconsistencies in facial attribute learning. We first train a baseline classifier and compute sample-wise self-influence scores using a practical first-order approximation to identify training instances that disproportionately destabilize optimization. Instead of discarding these influential samples, we apply targeted generative correction via a latent diffusion autoencoder to better align visual content with assigned labels while preserving identity and realism. To enable differentiable guidance during correction, we train a lightweight predictor of high-influence membership and use it as a surrogate influence regularizer. The edited samples replace the originals, yielding an influence-refined dataset of unchanged size. Across multi-class facial attribute classification, DiffInf consistently improves generalization compared with standard noisy-label training, robust optimization baselines, and influence-based filtering. Our results demonstrate that repairing influential annotation inconsistencies at the image level enhances downstream facial attribute classification without sacrificing distributional coverage.
- Abstract(参考訳): 顔属性分類は、年齢や表現などの多くの特徴が本質的に曖昧で連続的であるが、分類学的ラベルに識別されるような、大規模な注釈付きデータセットに依存している。
アノテーションの不一致は、ポーズ、照明、表現、人口変動といった主観性と視覚的共同創設者から生じ、画像と割り当てられたラベルの間にミスマッチを生じさせる。
これらの矛盾は、表現学習を損なう監督エラーを導入し、下流の予測を低下させる。
顔属性学習におけるアノテーションの不整合を緩和するための自己影響誘導拡散フレームワークであるDiffInfを紹介する。
まずベースライン分類器を訓練し、実際の一階述語近似を用いてサンプルの自己影響スコアを計算し、最適化を不均等に不安定にする訓練インスタンスを同定する。
このような影響のあるサンプルを捨てる代わりに、潜伏拡散オートエンコーダを用いてターゲット生成補正を適用し、識別とリアリズムを保ちながら、割り当てられたラベルと視覚的コンテンツをよりよく整合させる。
修正中の識別可能なガイダンスを実現するために,高影響メンバシップの軽量予測器を訓練し,サロゲート・インフルエンス・レギュレータとして利用する。
編集されたサンプルはオリジナルのものを置き換える。
マルチクラスの顔属性分類において、DiffInfは標準ノイズラベルトレーニング、ロバストな最適化ベースライン、影響に基づくフィルタリングと比較して、常に一般化を改善している。
以上の結果から,画像レベルでのアノテーションの不整合の修復は,分布範囲を犠牲にすることなく,下流の顔属性の分類を向上させることが示唆された。
関連論文リスト
- Let Samples Speak: Mitigating Spurious Correlation by Exploiting the Clusterness of Samples [11.727747752958436]
ディープラーニングモデルは、トレーニング中にクラスラベルと急激な相関関係を持つ機能を学ぶが、予測タスクとは無関係である。
既存の手法は通常、潜在的なスパイラルな属性を注釈付けしたり、経験的な仮定に基づいてスパイラルな特徴をフィルタリングすることでこの問題に対処する。
本稿では,深層学習モデルにおける突発的相関を緩和するデータ指向手法を提案する。
論文 参考訳(メタデータ) (2025-12-28T10:54:51Z) - AITTI: Learning Adaptive Inclusive Token for Text-to-Image Generation [53.65701943405546]
我々は適応的包摂トークンを学習し、最終的な生成出力の属性分布をシフトする。
本手法では,明示的な属性仕様やバイアス分布の事前知識は必要としない。
提案手法は,特定の属性を要求されたり,生成の方向を編集するモデルに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2024-06-18T17:22:23Z) - Leveraging vision-language models for fair facial attribute classification [19.93324644519412]
汎用視覚言語モデル(英: General-purpose Vision-Language Model, VLM)は、共通感性属性のための豊富な知識源である。
我々は,VLM予測値と人間定義属性分布の対応関係を解析した。
複数のベンチマークの顔属性分類データセットの実験は、既存の教師なしベースラインよりもモデルの公平性の向上を示している。
論文 参考訳(メタデータ) (2024-03-15T18:37:15Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - Counterfactual Image Generation for adversarially robust and
interpretable Classifiers [1.3859669037499769]
本稿では,GAN(Generative Adrial Networks)を基盤として,画像から画像への変換を利用した統合フレームワークを提案する。
これは、分類器と識別器を1つのモデルに組み合わせて、実際の画像をそれぞれのクラスに属性付け、生成されたイメージを「フェイク」として生成することで達成される。
モデルが敵攻撃に対するロバスト性の向上を示すことを示すとともに,判別器の「フェイクネス」値が予測の不確かさの指標となることを示す。
論文 参考訳(メタデータ) (2023-10-01T18:50:29Z) - UIA-ViT: Unsupervised Inconsistency-Aware Method based on Vision
Transformer for Face Forgery Detection [52.91782218300844]
そこで我々は、UIA-ViTと呼ばれるビジョン変換器に基づく教師なし不整合認識手法を提案する。
自己注意機構により、パッチ埋め込み間の注意マップは自然に一貫性関係を表現し、一貫性表現学習に適した視覚変換器となる。
論文 参考訳(メタデータ) (2022-10-23T15:24:47Z) - Causal Transportability for Visual Recognition [70.13627281087325]
画像とラベルの関連性は、設定間では転送できないため、標準分類器がフェールすることを示す。
次に、すべての共起源を摂食する因果効果が、ドメイン間で不変であることを示す。
これにより、画像分類における因果効果を推定するアルゴリズムを開発する動機付けとなる。
論文 参考訳(メタデータ) (2022-04-26T15:02:11Z) - Uncertain Label Correction via Auxiliary Action Unit Graphs for Facial
Expression Recognition [46.99756911719854]
ULC-AGと呼ばれる補助行動単位(AU)グラフを用いて,表情の不確実なラベル補正を実現する。
ULC-AGはRAF-DBとAffectNetのデータセットでそれぞれ89.31%と61.57%の精度を達成した。
論文 参考訳(メタデータ) (2022-04-23T11:09:43Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z) - Null-sampling for Interpretable and Fair Representations [8.654168514863649]
データ領域における不変表現を学習し、アルゴリズム的公正性における解釈可能性を実現する。
データドメインに表現を配置することで、モデルによってなされた変更は、人間の監査官によって容易に検査可能である。
論文 参考訳(メタデータ) (2020-08-12T11:49:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。