論文の概要: FeatInv: Spatially resolved mapping from feature space to input space using conditional diffusion models
- arxiv url: http://arxiv.org/abs/2505.21032v1
- Date: Tue, 27 May 2025 11:07:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.596887
- Title: FeatInv: Spatially resolved mapping from feature space to input space using conditional diffusion models
- Title(参考訳): FeatInv:条件拡散モデルを用いた特徴空間から入力空間への空間分解マッピング
- Authors: Nils Neukirch, Johanna Vielhaben, Nils Strodthoff,
- Abstract要約: ディープニューラルネットワークを理解するためには、内部表現が不可欠である。
特徴空間から入力空間へのマッピングは前者の解釈に役立つが、既存のアプローチはしばしば粗い近似に依存する。
本研究では,条件付き拡散モデルを用いて確率論的手法でそのような写像を学習する。
- 参考スコア(独自算出の注目度): 0.9503773054285559
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Internal representations are crucial for understanding deep neural networks, such as their properties and reasoning patterns, but remain difficult to interpret. While mapping from feature space to input space aids in interpreting the former, existing approaches often rely on crude approximations. We propose using a conditional diffusion model - a pretrained high-fidelity diffusion model conditioned on spatially resolved feature maps - to learn such a mapping in a probabilistic manner. We demonstrate the feasibility of this approach across various pretrained image classifiers from CNNs to ViTs, showing excellent reconstruction capabilities. Through qualitative comparisons and robustness analysis, we validate our method and showcase possible applications, such as the visualization of concept steering in input space or investigations of the composite nature of the feature space. This approach has broad potential for improving feature space understanding in computer vision models.
- Abstract(参考訳): 内部表現は、その特性や推論パターンなどの深いニューラルネットワークを理解するために重要であるが、解釈が難しいままである。
特徴空間から入力空間へのマッピングは前者の解釈に役立つが、既存のアプローチはしばしば粗い近似に依存する。
本研究では,空間的に解決された特徴写像に条件付き高忠実度拡散モデルである条件付き拡散モデルを用いて,そのような写像を確率論的に学習する。
提案手法は,CNN から ViT に至るまで,様々な事前訓練済み画像分類器にまたがって実現可能であることを示す。
定性比較とロバスト性解析により,入力空間における概念ステアリングの可視化や特徴空間の複合的性質の調査など,本手法の有効性を検証し,応用の可能性を示す。
このアプローチは、コンピュータビジョンモデルにおける特徴空間理解を改善する幅広い可能性を持っている。
関連論文リスト
- The Origins of Representation Manifolds in Large Language Models [52.68554895844062]
表現空間におけるコサイン類似性は、最短のオンマンフォールド経路を通して特徴の内在幾何学を符号化することができることを示す。
理論の臨界仮定と予測は、大きな言語モデルのテキスト埋め込みとトークンアクティベーションに基づいて検証される。
論文 参考訳(メタデータ) (2025-05-23T13:31:22Z) - Decoding Diffusion: A Scalable Framework for Unsupervised Analysis of Latent Space Biases and Representations Using Natural Language Prompts [68.48103545146127]
本稿では拡散潜在空間の教師なし探索のための新しい枠組みを提案する。
我々は、自然言語のプロンプトと画像キャプションを直接利用して、遅延方向をマップする。
本手法は,拡散モデルに符号化された意味的知識をよりスケーラブルで解釈可能な理解を提供する。
論文 参考訳(メタデータ) (2024-10-25T21:44:51Z) - Latent Functional Maps: a spectral framework for representation alignment [34.20582953800544]
表現学習コミュニティに多目的フレームワークを導入し、(i)異なる空間を解釈可能な方法で比較し、その内在的類似性を測定すること、(ii)教師なしと弱教師付きの両方で対応性を見出すこと、(iii)異なる空間間の表現を効果的に伝達すること。
我々は, 縫合作業から検索作業, および複数のモダリティに至るまで, 様々なアプリケーションにおいて, フレームワークを検証し, 表現アライメントのためのスウィスアームナイフとして機能することを示す。
論文 参考訳(メタデータ) (2024-06-20T10:43:28Z) - Diffusion Features to Bridge Domain Gap for Semantic Segmentation [2.8616666231199424]
本稿では, 拡散モデルの特徴を効率的に活用するために, サンプリングおよび融合技術を活用するアプローチについて検討する。
テキスト・画像生成能力の強みを生かして、暗黙的に後部知識を学習する新しいトレーニングフレームワークを導入する。
論文 参考訳(メタデータ) (2024-06-02T15:33:46Z) - Diffusion Model with Cross Attention as an Inductive Bias for Disentanglement [58.9768112704998]
遠方表現学習は、観測データ内の本質的要因を抽出する試みである。
我々は新しい視点と枠組みを導入し、クロスアテンションを持つ拡散モデルが強力な帰納バイアスとなることを示す。
これは、複雑な設計を必要とせず、クロスアテンションを持つ拡散モデルの強力な解離能力を明らかにする最初の研究である。
論文 参考訳(メタデータ) (2024-02-15T05:07:54Z) - Transforming Feature Space to Interpret Machine Learning Models [91.62936410696409]
この貢献は、特徴空間変換のレンズを通して機械学習モデルを解釈する新しいアプローチを提案する。
非条件的および条件付きポストホック診断ツールの拡張に使用できる。
提案手法の可能性を実証するために,46特徴のリモートセンシング土地被覆分類の事例研究を行った。
論文 参考訳(メタデータ) (2021-04-09T10:48:11Z) - A generalizable saliency map-based interpretation of model outcome [1.14219428942199]
そこで本研究では,モデルの入力と出力を用いてサリエンシマップを生成する非侵襲的解釈可能性手法を提案する。
実験の結果,本手法は入力の正解部分を89%の精度で再現可能であることがわかった。
論文 参考訳(メタデータ) (2020-06-16T20:34:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。