論文の概要: APEX: Probing Neural Networks via Activation Perturbation
- arxiv url: http://arxiv.org/abs/2602.03586v1
- Date: Tue, 03 Feb 2026 14:36:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.513975
- Title: APEX: Probing Neural Networks via Activation Perturbation
- Title(参考訳): APEX: 活性化摂動によるニューラルネットワークの探索
- Authors: Tao Ren, Xiaoyu Luo, Qiongxiu Li,
- Abstract要約: 本稿では,ニューラルネットワークの推論時間探索パラダイムとして Activation Perturbation for Exploration (APEX) を導入する。
APEXは入力とモデルパラメータの両方を固定しながら、隠れたアクティベーションを摂動する。
この結果から,APEXは入力空間からのみアクセス可能な範囲を超えて,ニューラルネットワークを探索し,理解するための効果的な視点を提供することが示された。
- 参考スコア(独自算出の注目度): 10.517751599566548
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prior work on probing neural networks primarily relies on input-space analysis or parameter perturbation, both of which face fundamental limitations in accessing structural information encoded in intermediate representations. We introduce Activation Perturbation for EXploration (APEX), an inference-time probing paradigm that perturbs hidden activations while keeping both inputs and model parameters fixed. We theoretically show that activation perturbation induces a principled transition from sample-dependent to model-dependent behavior by suppressing input-specific signals and amplifying representation-level structure, and further establish that input perturbation corresponds to a constrained special case of this framework. Through representative case studies, we demonstrate the practical advantages of APEX. In the small-noise regime, APEX provides a lightweight and efficient measure of sample regularity that aligns with established metrics, while also distinguishing structured from randomly labeled models and revealing semantically coherent prediction transitions. In the large-noise regime, APEX exposes training-induced model-level biases, including a pronounced concentration of predictions on the target class in backdoored models. Overall, our results show that APEX offers an effective perspective for exploring, and understanding neural networks beyond what is accessible from input space alone.
- Abstract(参考訳): ニューラルネットワークを探索する以前の研究は、主に入力空間分析やパラメータ摂動に依存しており、どちらも中間表現に符号化された構造情報にアクセスする際の基本的な制限に直面している。
本稿では,入力とモデルパラメータの両方を固定したまま,隠れたアクティベーションを摂動する推論時間探索パラダイムである Activation Perturbation for Exploration (APEX) を導入する。
本稿では,入力固有信号の抑制と表現レベル構造の増幅により,アクティベーション摂動が標本依存からモデル依存的行動への原則的遷移を誘導し,さらに,入力摂動がこの枠組みの制約された特殊ケースに対応することを示す。
代表的な事例研究を通じて,APEXの実用的利点を実証する。
小型ノイズシステムでは、APEXはサンプル規則性の軽量かつ効率的な測定方法を提供し、既存のメトリクスと一致し、ランダムにラベル付けされたモデルと構造を区別し、意味的に一貫性のある予測遷移を明らかにする。
大規模ノイズシステムでは、APEXはトレーニングによって引き起こされるモデルレベルのバイアスを露呈する。
全体として、APEXは入力空間からのみアクセス可能なものを超えて、ニューラルネットワークを探索し、理解するための効果的な視点を提供する。
関連論文リスト
- Neural Bridge Processes [21.702709965353804]
本稿では,入力xが拡散軌道全体の動的アンカーとして機能する関数をモデル化する手法を提案する。
合成データ,脳波信号レグレッション,画像レグレッションタスクにおいてNBPを検証し,ベースラインよりも大幅に改善した。
論文 参考訳(メタデータ) (2025-08-10T07:44:52Z) - A Simple Approximate Bayesian Inference Neural Surrogate for Stochastic Petri Net Models [0.0]
後部分布フレームワークのニューラルネットワークに基づく近似を導入する。
我々のモデルは、Gilespie-simulated SPN realizations上で訓練された1D Convolutional Residual Networkを使用する。
20%の欠落事象を持つ合成SPNでは, RMSE = 0.108で速度関数係数を回復し, 従来のベイズ手法よりもかなり高速に動作する。
論文 参考訳(メタデータ) (2025-07-14T18:31:19Z) - Neural Network Reprogrammability: A Unified Theme on Model Reprogramming, Prompt Tuning, and Prompt Instruction [57.19302613163439]
モデル適応のための統一フレームワークとして,ニューラルネットワークの再プログラム可能性を導入する。
本稿では,4つの重要な側面にまたがる情報操作アプローチを分類する分類法を提案する。
残る技術的課題や倫理的考察も分析する。
論文 参考訳(メタデータ) (2025-06-05T05:42:27Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z) - CASTLE: Regularization via Auxiliary Causal Graph Discovery [89.74800176981842]
因果構造学習(CASTLE)の正規化を導入し,変数間の因果関係を共同学習することでニューラルネットワークの正規化を提案する。
CASTLEは因果的隣り合いを持つ因果的DAGの特徴のみを効率的に再構成する一方、再構成ベース正規化器は全ての入力特徴を過度に再構成する。
論文 参考訳(メタデータ) (2020-09-28T09:49:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。