論文の概要: MaskDiME: Adaptive Masked Diffusion for Precise and Efficient Visual Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2602.18792v1
- Date: Sat, 21 Feb 2026 10:53:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.314902
- Title: MaskDiME: Adaptive Masked Diffusion for Precise and Efficient Visual Counterfactual Explanations
- Title(参考訳): MaskDiME: 高精度かつ効率的な視覚対実説明のための適応的マスケプド拡散
- Authors: Changlu Guo, Anders Nymark Christensen, Anders Bjorholm Dahl, Morten Rieger Hannemose,
- Abstract要約: MaskDiMEは拡散に基づく反ファクト生成フレームワークである。
局所的なサンプリングによって意味的一貫性と空間的精度を統一する。
ベースライン法よりも30倍以上高速な推論を実現する。
- 参考スコア(独自算出の注目度): 7.325562054466611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual counterfactual explanations aim to reveal the minimal semantic modifications that can alter a model's prediction, providing causal and interpretable insights into deep neural networks. However, existing diffusion-based counterfactual generation methods are often computationally expensive, slow to sample, and imprecise in localizing the modified regions. To address these limitations, we propose MaskDiME, a simple, fast, and effective diffusion framework that unifies semantic consistency and spatial precision through localized sampling. Our approach adaptively focuses on decision-relevant regions to achieve localized and semantically consistent counterfactual generation while preserving high image fidelity. Our training-free framework, MaskDiME, achieves over 30x faster inference than the baseline method and achieves comparable or state-of-the-art performance across five benchmark datasets spanning diverse visual domains, establishing a practical and generalizable solution for efficient counterfactual explanation.
- Abstract(参考訳): 視覚的カウンターファクトの説明は、モデルの予測を変更できる最小限の意味的な修正を明らかにすることを目的としており、ディープニューラルネットワークに対する因果的かつ解釈可能な洞察を提供する。
しかし、既存の拡散に基づく反ファクト生成法は、しばしば計算コストが高く、サンプリングが遅く、修正された領域のローカライズに不正確である。
これらの制約に対処するために,局所サンプリングによる意味的一貫性と空間的精度を統一する,シンプルで高速かつ効果的な拡散フレームワークであるMaskDiMEを提案する。
提案手法は,画像の忠実さを保ちながら局所的かつ意味的に整合した反ファクト生成を実現するための決定関連領域に適応的に焦点をあてる。
トレーニング不要のフレームワークであるMaskDiMEは,ベースライン手法よりも30倍以上高速な推論を実現し,多様な視覚領域にまたがる5つのベンチマークデータセットに対して,同等あるいは最先端のパフォーマンスを実現し,効果的な対実的説明のための実用的で一般化可能なソリューションを確立した。
関連論文リスト
- Event-based Visual Deformation Measurement [76.25283405575108]
視覚的変形測定は、カメラ観測から表面の動きを追跡することによって、高密度な変形場を復元することを目的としている。
従来の画像ベースの手法は、対応検索空間を制限するため、最小限のフレーム間動作に依存している。
本研究では,時間的に密集した動きキューやフレームのイベントを利用して,空間的に密集した正確な推定を行うイベントフレーム融合フレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-16T01:04:48Z) - EfficientIML: Efficient High-Resolution Image Manipulation Localization [38.432078329653926]
1200以上の拡散生成操作を意味的に抽出したマスクを用いた新しい高分解能SIFデータセットを提案する。
本稿では,軽量で3段階のRWKVバックボーンを有する新しいEfficientIMLモデルを提案する。
提案手法は, ローカライズ性能, FLOP, 推論速度において, ViT ベースや他の SOTA 軽量ベースラインよりも優れている。
論文 参考訳(メタデータ) (2025-09-10T13:32:02Z) - Towards Efficient General Feature Prediction in Masked Skeleton Modeling [59.46799426434277]
マスクスケルトンモデリングのための新しい汎用特徴予測フレームワーク(GFP)を提案する。
我々の重要な革新は、局所的な動きパターンからグローバルな意味表現にまたがる、従来の低レベルな再構築を高レベルな特徴予測に置き換えることです。
論文 参考訳(メタデータ) (2025-09-03T18:05:02Z) - Mask Approximation Net: A Novel Diffusion Model Approach for Remote Sensing Change Captioning [14.994719390886774]
リモートセンシング画像変化記述は、リモートセンシング処理の領域における革新的なマルチモーダルタスクを表す。
本稿では,周波数領域雑音フィルタリングにより強化された拡散モデルを用いたデータ分散学習へ移行するパラダイムを提案する。
本稿では,リモートセンシングによる変化検出と記述のための提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-12-26T11:35:57Z) - Diffusion Features to Bridge Domain Gap for Semantic Segmentation [2.8616666231199424]
本稿では, 拡散モデルの特徴を効率的に活用するために, サンプリングおよび融合技術を活用するアプローチについて検討する。
テキスト・画像生成能力の強みを生かして、暗黙的に後部知識を学習する新しいトレーニングフレームワークを導入する。
論文 参考訳(メタデータ) (2024-06-02T15:33:46Z) - Continual-MAE: Adaptive Distribution Masked Autoencoders for Continual Test-Time Adaptation [49.827306773992376]
連続的テスト時間適応(CTTA)は、ソース事前学習モデルから目標分布の連続的な変化に移行するために提案される。
提案手法は,CTTAタスクの分類とセグメンテーションの両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-19T15:34:52Z) - Prompting Diffusion Representations for Cross-Domain Semantic
Segmentation [101.04326113360342]
拡散事前学習は、セマンティックセグメンテーションのための並外れた領域一般化結果を達成する。
本研究では,シーンプロンプトとプロンプトランダム化戦略を導入し,セグメンテーションヘッドを訓練する際に,ドメイン不変情報をさらに混乱させる。
論文 参考訳(メタデータ) (2023-07-05T09:28:25Z) - CamoDiffusion: Camouflaged Object Detection via Conditional Diffusion
Models [72.93652777646233]
カモフラーゲ型物体検出(COD)は、カモフラーゲ型物体とその周囲の類似性が高いため、コンピュータビジョンにおいて難しい課題である。
本研究では,CODを拡散モデルを利用した条件付きマスク生成タスクとして扱う新しいパラダイムを提案する。
カモ拡散(CamoDiffusion)と呼ばれる本手法では,拡散モデルのデノナイズプロセスを用いてマスクの雑音を反復的に低減する。
論文 参考訳(メタデータ) (2023-05-29T07:49:44Z) - supervised adptive threshold network for instance segmentation [4.347876036795798]
適応しきい値に基づくマスクR-CNN法
層状適応ネットワーク構造
アダプティブ・フィーチャー・プール
ベンチマークデータセットの実験から,提案モデルの有効性が示唆された。
論文 参考訳(メタデータ) (2021-06-07T09:25:44Z) - Focus on Semantic Consistency for Cross-domain Crowd Understanding [34.560447389853614]
いくつかのドメイン適応アルゴリズムは、合成データでモデルをトレーニングすることでそれを解放しようとする。
その結果,背景領域における推定誤差が既存手法の性能を阻害していることが判明した。
本稿では,ドメイン適応手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T08:51:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。