論文の概要: SAGE: Saliency-Guided Contrastive Embeddings
- arxiv url: http://arxiv.org/abs/2511.12744v1
- Date: Sun, 16 Nov 2025 19:19:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.513541
- Title: SAGE: Saliency-Guided Contrastive Embeddings
- Title(参考訳): SAGE: サイレンシガイドによるコントラストの埋め込み
- Authors: Colton R. Crum, Adam Czajka,
- Abstract要約: モデルトレーニングに相性を統合する既存のアプローチは、しばしば内部モデルメカニズムに依存します。
本稿では,SAGE(Saliency-Guided Contrastive Embeddings)を提案する。
我々は,SOTAの正当性に基づく手法に対して,オープンおよびクローズドセットの両方のシナリオで分類性能が向上することを示す。
- 参考スコア(独自算出の注目度): 4.33144664431421
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Integrating human perceptual priors into the training of neural networks has been shown to raise model generalization, serve as an effective regularizer, and align models with human expertise for applications in high-risk domains. Existing approaches to integrate saliency into model training often rely on internal model mechanisms, which recent research suggests may be unreliable. Our insight is that many challenges associated with saliency-guided training stem from the placement of the guidance approaches solely within the image space. Instead, we move away from the image space, use the model's latent space embeddings to steer human guidance during training, and we propose SAGE (Saliency-Guided Contrastive Embeddings): a loss function that integrates human saliency into network training using contrastive embeddings. We apply salient-preserving and saliency-degrading signal augmentations to the input and capture the changes in embeddings and model logits. We guide the model towards salient features and away from non-salient features using a contrastive triplet loss. Additionally, we perform a sanity check on the logit distributions to ensure that the model outputs match the saliency-based augmentations. We demonstrate a boost in classification performance across both open- and closed-set scenarios against SOTA saliency-based methods, showing SAGE's effectiveness across various backbones, and include experiments to suggest its wide generalization across tasks.
- Abstract(参考訳): ニューラルネットワークのトレーニングに人間の知覚的先行性を統合することで、モデルの一般化を高め、効果的な正規化要因として機能し、リスクの高いドメインでの応用のための人間の専門知識とモデルを整合させることが示されている。
モデルトレーニングにサリエンシを統合する既存のアプローチは、しばしば内部モデルメカニズムに依存している。
我々の洞察では、サリエンシ誘導トレーニングに関連する多くの課題は、画像空間内のみにガイダンスアプローチを配置することに由来する。
代わりに、画像空間から離れ、モデルの潜在空間埋め込みを使用してトレーニング中に人間の指導を操り、SAGE(Saliency-Guided Contrastive Embeddings)を提案する。
入力に保存信号および分解信号の蓄積を適用し,埋め込みやモデルロジットの変化を捉える。
我々は、対照的な三重項損失を用いて、正則な特徴と非正則な特徴から遠ざかるようモデルを導いた。
さらに、ロジット分布の正当性チェックを行い、モデル出力が正当性に基づく拡張と一致することを保証する。
我々は,SOTAサリエンシに基づく手法に対するオープンおよびクローズドなシナリオ間の分類性能の向上を実証し,SAGEの有効性を様々なバックボーンで示すとともに,タスク間の広範な一般化を提案する実験を含む。
関連論文リスト
- Did Models Sufficient Learn? Attribution-Guided Training via Subset-Selected Counterfactual Augmentation [61.248535801314375]
Subset-Selected Counterfactual Augmentation (SS-CA)
我々は,モデル予測を選択的に変更可能な最小空間領域集合を識別するために,対実的LIMAを開発した。
実験により,SS-CAは分布内テストデータ(ID)の一般化を改善し,分布外ベンチマーク(OOD)において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-11-15T08:39:22Z) - Model Will Tell: Training Membership Inference for Diffusion Models [15.16244745642374]
トレーニングメンバーシップ推論(TMI)タスクは、ターゲットモデルのトレーニングプロセスで特定のサンプルが使用されているかどうかを判断することを目的としている。
本稿では,拡散モデル内における本質的な生成先行情報を活用することで,TMIタスクの新たな視点を探求する。
論文 参考訳(メタデータ) (2024-03-13T12:52:37Z) - Bridging Generative and Discriminative Models for Unified Visual
Perception with Diffusion Priors [56.82596340418697]
本稿では,豊富な生成前駆体を含む事前学習型安定拡散(SD)モデルと,階層的表現を統合可能な統一型ヘッド(Uヘッド)と,識別前駆体を提供する適応型専門家からなる,シンプルで効果的なフレームワークを提案する。
包括的調査では、異なる時間ステップで潜伏変数に隠された知覚の粒度や様々なU-netステージなど、バーマスの潜在的な特性が明らかになった。
有望な結果は,有望な学習者としての拡散モデルの可能性を示し,情報的かつ堅牢な視覚表現の確立にその意義を定めている。
論文 参考訳(メタデータ) (2024-01-29T10:36:57Z) - ReCoRe: Regularized Contrastive Representation Learning of World Model [21.29132219042405]
対照的な教師なし学習と介入不変正規化器を用いて不変特徴を学習する世界モデルを提案する。
提案手法は,現状のモデルベースおよびモデルフリーのRL法より優れ,iGibsonベンチマークで評価された分布外ナビゲーションタスクを大幅に改善する。
論文 参考訳(メタデータ) (2023-12-14T15:53:07Z) - MENTOR: Human Perception-Guided Pretraining for Increased Generalization [4.737519767218666]
畳み込みニューラルネットワーク(CNN)のトレーニングに人間の知覚を活用することで、オープンセット認識タスクにおけるそのようなモデルの一般化能力が向上した。
本稿では,オープンセットの異常検出を行うCNNの2つの訓練ラウンドを通じて,この問題に対処するMENTORを紹介する。
MENTORは3つの異なるCNNバックボーンにまたがる一般化性能を,様々な異常検出タスクで向上させることを示す。
論文 参考訳(メタデータ) (2023-10-30T13:50:44Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Feature Diversity Learning with Sample Dropout for Unsupervised Domain
Adaptive Person Re-identification [0.0]
本稿では,ノイズの多い擬似ラベルを限定することで,より優れた一般化能力を持つ特徴表現を学習する手法を提案する。
我々は,古典的な相互学習アーキテクチャの下で,FDL(Feature Diversity Learning)と呼ばれる新しい手法を提案する。
実験の結果,提案するFDL-SDは,複数のベンチマークデータセット上での最先端性能を実現することがわかった。
論文 参考訳(メタデータ) (2022-01-25T10:10:48Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。