論文の概要: Through a Steerable Lens: Magnifying Neural Network Interpretability via Phase-Based Extrapolation
- arxiv url: http://arxiv.org/abs/2506.02300v2
- Date: Tue, 10 Jun 2025 16:26:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:40.158952
- Title: Through a Steerable Lens: Magnifying Neural Network Interpretability via Phase-Based Extrapolation
- Title(参考訳): ステアブルレンズを通して:位相ベース外挿によるニューラルネットワークの拡張性
- Authors: Farzaneh Mahdisoltani, Saeed Mahdisoltani, Roger B. Grosse, David J. Fleet,
- Abstract要約: 本稿では,ネットワーク勾配を無限小運動の形式として扱うことにより,クラス間の暗黙の経路を可視化する新しいフレームワークを提案する。
合成と実世界の両方のデータセットの実験では、フェーズ中心の補間が知覚的に整合し、意味的に意味のある変換をもたらすことが示されている。
- 参考スコア(独自算出の注目度): 26.45789667046442
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding the internal representations and decision mechanisms of deep neural networks remains a critical open challenge. While existing interpretability methods often identify influential input regions, they may not elucidate how a model distinguishes between classes or what specific changes would transition an input from one category to another. To address these limitations, we propose a novel framework that visualizes the implicit path between classes by treating the network gradient as a form of infinitesimal motion. Drawing inspiration from phase-based motion magnification, we first decompose images using invertible transforms-specifically the Complex Steerable Pyramid-then compute class-conditional gradients in the transformed space. Rather than iteratively integrating the gradient to trace a full path, we amplify the one-step gradient to the input and perform a linear extrapolation to expose how the model moves from source to target class. By operating in the steerable pyramid domain, these amplified gradients produce semantically meaningful, spatially coherent morphs that highlight the classifier's most sensitive directions, giving insight into the geometry of its decision boundaries. Experiments on both synthetic and real-world datasets demonstrate that our phase-focused extrapolation yields perceptually aligned, semantically meaningful transformations, offering a novel, interpretable lens into neural classifiers' internal representations.
- Abstract(参考訳): ディープニューラルネットワークの内部表現と決定機構を理解することは、依然として重要なオープンチャレンジである。
既存の解釈可能性法は、しばしば影響のある入力領域を識別するが、モデルがどのようにクラスを区別するか、どの特定の変更が入力をあるカテゴリから別のカテゴリに遷移するかを理解することはできない。
これらの制約に対処するために,ネットワーク勾配を無限小運動の形式として扱うことにより,クラス間の暗黙の経路を可視化する新しいフレームワークを提案する。
まず、位相に基づく運動倍率からインスピレーションを得て、変換空間における非可逆変換、特に複素ステアブルピラミッド-その計算のクラス条件勾配を用いて画像を分解する。
勾配を反復的に統合して完全な経路を辿るのではなく、入力へのワンステップ勾配を増幅し、モデルがソースからターゲットクラスへどのように移動するかを明らかにする線形補間を行う。
操舵可能なピラミッド領域で操作することで、これらの増幅された勾配は意味論的に意味があり、空間的に整合した形態を生じさせ、分類器の最も敏感な方向を強調し、その決定境界の幾何学に関する洞察を与える。
合成と実世界の両方のデータセットの実験により、私たちの位相中心の補間は知覚的に整合し、意味的に意味のある変換をもたらし、新しい、解釈可能なレンズを神経分類器の内部表現に提供します。
関連論文リスト
- Mapping the Edge of Chaos: Fractal-Like Boundaries in The Trainability of Decoder-Only Transformer Models [0.0]
ミニチュアニューラルネットワークによる最近の証拠は、これらの結果を分離する境界がフラクタル特性を示すことを示唆している。
本研究は、より一貫した収束尺度を用いて、中規模デコーダのみの変圧器アーキテクチャに拡張する。
その結果、訓練性フロンティアは単純なしきい値ではなく、複数のスケールで自己相似で一見ランダムな構造を形成することがわかった。
論文 参考訳(メタデータ) (2025-01-08T05:24:11Z) - Flow Factorized Representation Learning [109.51947536586677]
本稿では、異なる入力変換を定義する潜在確率パスの別個のセットを規定する生成モデルを提案する。
本モデルは,ほぼ同変モデルに近づきながら,標準表現学習ベンチマークにおいて高い確率を達成することを示す。
論文 参考訳(メタデータ) (2023-09-22T20:15:37Z) - Latent Traversals in Generative Models as Potential Flows [113.4232528843775]
我々は,学習された動的ポテンシャルランドスケープを持つ潜在構造をモデル化することを提案する。
物理、最適輸送、神経科学にインスパイアされたこれらの潜在的景観は、物理的に現実的な偏微分方程式として学習される。
本手法は,最先端のベースラインよりも定性的かつ定量的に歪んだ軌跡を実現する。
論文 参考訳(メタデータ) (2023-04-25T15:53:45Z) - Latent Transformations via NeuralODEs for GAN-based Image Editing [25.272389610447856]
トレーニング可能なNeural ODEのフローとして実現された非線形潜時符号操作は、多くの実用的な非顔画像領域にとって有益であることを示す。
特に、既知の属性を持つ多数のデータセットを調査し、ある属性操作が線形シフトのみで取得することが困難であることを実証する。
論文 参考訳(メタデータ) (2021-11-29T18:59:54Z) - Graph Modularity: Towards Understanding the Cross-Layer Transition of
Feature Representations in Deep Neural Networks [7.187240308034312]
我々は、ディープニューラルネットワーク(DNN)における特徴表現の遷移を理解するための小さな一歩を踏み出した。
まず、中間層におけるクラス分離を解析し、次に、動的グラフにおけるコミュニティ進化としてクラス分離の過程をモデル化する。
モジュラリティは層が深くなるにつれて上昇する傾向にあるが、特定の層で隆起するか、あるいは隆起する傾向にある。
論文 参考訳(メタデータ) (2021-11-24T13:29:17Z) - Augmenting Implicit Neural Shape Representations with Explicit
Deformation Fields [95.39603371087921]
入射神経表現は、ニューラルネットワークのゼロレベルセットとして形状収集を学ぶための最近のアプローチである。
我々は,暗黙的ニューラル表現に対する変形認識正規化を提唱し,遅延コードの変化として可塑性変形を生成することを目的とした。
論文 参考訳(メタデータ) (2021-08-19T22:07:08Z) - SNARF: Differentiable Forward Skinning for Animating Non-Rigid Neural
Implicit Shapes [117.76767853430243]
SNARFは多角形メッシュに対する線形ブレンドスキンの利点とニューラル暗黙表面の利点を組み合わせたものである。
反復ルート探索を用いて任意の変形点のすべての正準対応を探索するフォワードスキンモデルを提案する。
最先端のニューラルネットワークの暗黙的表現と比較すると,このアプローチは,精度を維持しつつ,未認識のポーズを一般化する。
論文 参考訳(メタデータ) (2021-04-08T17:54:59Z) - Image-to-image Mapping with Many Domains by Sparse Attribute Transfer [71.28847881318013]
教師なし画像と画像の変換は、2つの領域間の一対のマッピングを、ポイント間の既知のペアワイズ対応なしで学習することで構成される。
現在の慣例は、サイクル一貫性のあるGANでこのタスクにアプローチすることです。
そこで本研究では,ジェネレータを直接,潜在層における単純なスパース変換に制限する代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-23T19:52:23Z) - Fast Symmetric Diffeomorphic Image Registration with Convolutional
Neural Networks [11.4219428942199]
本稿では,新しい非教師付き対称画像登録手法を提案する。
大規模脳画像データセットを用いた3次元画像登録法について検討した。
論文 参考訳(メタデータ) (2020-03-20T22:07:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。