論文の概要: Learning Counterfactually Decoupled Attention for Open-World Model Attribution
- arxiv url: http://arxiv.org/abs/2506.23074v1
- Date: Sun, 29 Jun 2025 03:25:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.704282
- Title: Learning Counterfactually Decoupled Attention for Open-World Model Attribution
- Title(参考訳): オープンワールドモデル属性に対する非現実的意図の学習
- Authors: Yu Zheng, Boyang Gong, Fanye Kong, Yueqi Duan, Bingyao Yu, Wenzhao Zheng, Lei Chen, Jiwen Lu, Jie Zhou,
- Abstract要約: 本稿では,オープンワールドモデル帰属のためのCDAL法を提案する。
我々の手法は、特に目に見えない新規攻撃に対して、最先端のモデルを大きなマージンで継続的に改善する。
- 参考スコア(独自算出の注目度): 75.52873383916672
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a Counterfactually Decoupled Attention Learning (CDAL) method for open-world model attribution. Existing methods rely on handcrafted design of region partitioning or feature space, which could be confounded by the spurious statistical correlations and struggle with novel attacks in open-world scenarios. To address this, CDAL explicitly models the causal relationships between the attentional visual traces and source model attribution, and counterfactually decouples the discriminative model-specific artifacts from confounding source biases for comparison. In this way, the resulting causal effect provides a quantification on the quality of learned attention maps, thus encouraging the network to capture essential generation patterns that generalize to unseen source models by maximizing the effect. Extensive experiments on existing open-world model attribution benchmarks show that with minimal computational overhead, our method consistently improves state-of-the-art models by large margins, particularly for unseen novel attacks. Source code: https://github.com/yzheng97/CDAL.
- Abstract(参考訳): 本稿では,オープンワールドモデル帰属のためのCDAL法を提案する。
既存の手法は、領域分割や特徴空間の手作り設計に依存しており、これは、突発的な統計的相関と、オープンワールドシナリオにおける新たな攻撃との闘いによって構築される可能性がある。
この問題に対処するためにCDALは、注目の視覚的トレースとソースモデル属性の因果関係を明示的にモデル化し、比較のためにソースバイアスを埋め合わせることで、識別モデル固有のアーティファクトを事実上分離する。
このようにして、結果として生じる因果効果は、学習された注目マップの品質を定量化し、その効果を最大化し、見つからないソースモデルに一般化する本質的な生成パターンをネットワークが捉えることを奨励する。
既存のオープンワールドモデル帰属ベンチマークの大規模な実験により、計算オーバーヘッドを最小限に抑えながら、我々の手法は、特に目に見えない新規攻撃に対して、最先端モデルを大幅に改善することを示した。
ソースコード:https://github.com/yzheng97/CDAL。
関連論文リスト
- Diffusing DeBias: Synthetic Bias Amplification for Model Debiasing [15.214861534330236]
Diffusing DeBias (DDB) を、教師なしモデルデバイアスの一般的な方法のためのプラグインとして導入する。
具体的には、条件付き拡散モデルを用いて、合成バイアス整合画像を生成する。
補助モデル学習におけるバイアス分散トレーニングサンプルの根本的な問題に対処することにより、提案手法は複数のベンチマークデータセットで最先端のモデルに勝る。
論文 参考訳(メタデータ) (2025-02-13T18:17:03Z) - Bridging Model-Based Optimization and Generative Modeling via Conservative Fine-Tuning of Diffusion Models [54.132297393662654]
本稿では,RLによる報酬モデルの最適化により,最先端拡散モデルを微調整するハイブリッド手法を提案する。
我々は、報酬モデルの補間能力を活用し、オフラインデータにおいて最良の設計を上回るアプローチの能力を実証する。
論文 参考訳(メタデータ) (2024-05-30T03:57:29Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Improving Generative Model-based Unfolding with Schr\"{o}dinger Bridges [14.989614554242229]
機械学習に基づく展開により、未結合かつ高次元の断面積測定が可能になった。
我々はシュレーディンガーブリッジと拡散モデルを用いてSBUnfoldを作成することを提案する。
SBUnfoldは,合成Z+jetsデータセット上でのアート手法の状態と比較して,優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2023-08-23T18:01:01Z) - Studying How to Efficiently and Effectively Guide Models with Explanations [52.498055901649025]
「モデルガイダンス」とは「正しい理由のために正しい」ことを保証するためにモデルの説明を規則化する考え方である。
PASCAL VOC 2007 および MS COCO 2014 データセット上で, 各種損失関数, 帰属方法, モデル, 誘導深度について詳細な評価を行う。
具体的には、一般的に使用されるセグメンテーションマスクよりもはるかに安価で入手可能なバウンディングボックスアノテーションを用いてモデルをガイドする。
論文 参考訳(メタデータ) (2023-03-21T15:34:50Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。