論文の概要: DeepProv: Behavioral Characterization and Repair of Neural Networks via Inference Provenance Graph Analysis
- arxiv url: http://arxiv.org/abs/2509.26562v1
- Date: Tue, 30 Sep 2025 17:29:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:45:00.229679
- Title: DeepProv: Behavioral Characterization and Repair of Neural Networks via Inference Provenance Graph Analysis
- Title(参考訳): DeepProv: 推論確率グラフ解析によるニューラルネットワークの挙動解析と修復
- Authors: Firas Ben Hmida, Abderrahmen Amich, Ata Kaboudi, Birhanu Eshete,
- Abstract要約: DeepProvは、推論中にディープニューラルネットワーク(DNN)のランタイム動作をキャプチャして特徴付けるように設計されたシステムである。
システム監査証明グラフにインスパイアされたDeepProvは、IPG(Inference Provenance Graphs)を通して、DNNの推論プロセスの計算情報フローをモデル化する。
DeepProvはこれらの洞察を使って、堅牢性、プライバシ、公正性など、特定の目的のためにDNNを体系的に修復する。
- 参考スコア(独自算出の注目度): 1.7266027274320124
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) are increasingly being deployed in high-stakes applications, from self-driving cars to biometric authentication. However, their unpredictable and unreliable behaviors in real-world settings require new approaches to characterize and ensure their reliability. This paper introduces DeepProv, a novel and customizable system designed to capture and characterize the runtime behavior of DNNs during inference by using their underlying graph structure. Inspired by system audit provenance graphs, DeepProv models the computational information flow of a DNN's inference process through Inference Provenance Graphs (IPGs). These graphs provide a detailed structural representation of the behavior of DNN, allowing both empirical and structural analysis. DeepProv uses these insights to systematically repair DNNs for specific objectives, such as improving robustness, privacy, or fairness. We instantiate DeepProv with adversarial robustness as the goal of model repair and conduct extensive case studies to evaluate its effectiveness. Our results demonstrate its effectiveness and scalability across diverse classification tasks, attack scenarios, and model complexities. DeepProv automatically identifies repair actions at the node and edge-level within IPGs, significantly enhancing the robustness of the model. In particular, applying DeepProv repair strategies to just a single layer of a DNN yields an average 55% improvement in adversarial accuracy. Moreover, DeepProv complements existing defenses, achieving substantial gains in adversarial robustness. Beyond robustness, we demonstrate the broader potential of DeepProv as an adaptable system to characterize DNN behavior in other critical areas, such as privacy auditing and fairness analysis.
- Abstract(参考訳): ディープニューラルネットワーク(Deep Neural Network, DNN)は、自動運転車から生体認証まで、ますます高度なアプリケーションにデプロイされている。
しかし、現実の環境での予測不可能で信頼性の低い振る舞いは、その信頼性を特徴付ける新しいアプローチを必要とする。
本稿では,その基盤となるグラフ構造を用いて,推論中のDNNの動作をキャプチャし,特徴付ける新鮮でカスタマイズ可能なシステムであるDeepProvを紹介する。
システム監査証明グラフにインスパイアされたDeepProvは、IPG(Inference Provenance Graphs)を通じて、DNNの推論プロセスの計算情報フローをモデル化する。
これらのグラフはDNNの振舞いの詳細な構造表現を提供し、経験的解析と構造的解析の両方を可能にする。
DeepProvはこれらの洞察を使って、堅牢性、プライバシ、公正性など、特定の目的のためにDNNを体系的に修復する。
モデル修復の目的として,DeepProvを対向ロバスト性でインスタンス化し,その有効性を評価するために広範囲にわたるケーススタディを実施している。
この結果から, 多様な分類タスク, 攻撃シナリオ, モデル複雑度にまたがる有効性とスケーラビリティが示された。
DeepProvはIPG内のノードとエッジレベルの修復動作を自動的に識別し、モデルの堅牢性を大幅に向上させる。
特に、DNNの1つの層にDeepProvの修復戦略を適用すると、敵の精度が平均55%向上する。
さらに、DeepProvは既存の防御を補完し、敵の堅牢性を大幅に向上させる。
堅牢性以外にも、プライバシー監査や公正性分析など、他の重要な領域におけるDNNの振る舞いを特徴付ける適応可能なシステムとして、DeepProvの幅広い可能性を示す。
関連論文リスト
- Uncertainty-Aware Graph Neural Networks: A Multi-Hop Evidence Fusion Approach [55.43914153271912]
グラフニューラルネットワーク(GNN)は、グラフ構造とノード機能を統合することにより、グラフ表現学習に優れる。
既存のGNNでは、モデルの深さによって異なるクラス確率の不確実性を考慮することができず、現実のシナリオでは信頼できない、リスクの高い予測が生じる。
本稿では,信頼に値する予測を達成し,ノード分類精度を高め,誤予測のリスクを明らかにするために,新しいEvidence Fusing Graph Neural Network (EFGNN)を提案する。
論文 参考訳(メタデータ) (2025-06-16T03:59:38Z) - Alpha-VI DeepONet: A prior-robust variational Bayesian approach for enhancing DeepONets with uncertainty quantification [0.0]
一般化変分推論(GVI)を組み込んだ新しいディープオペレータネットワーク(DeepONet)を提案する。
分岐ネットワークとトランクネットワークのビルディングブロックとしてベイズニューラルネットワークを組み込むことで,不確実な定量化が可能なDeepONetを実現する。
変動目的関数の修正は平均二乗誤差を最小化する点で優れた結果をもたらすことを示す。
論文 参考訳(メタデータ) (2024-08-01T16:22:03Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Model-Agnostic Reachability Analysis on Deep Neural Networks [25.54542656637704]
我々はDeepAgnと呼ばれるモデルに依存しない検証フレームワークを開発した。
FNN、リカレントニューラルネットワーク(RNN)、あるいは両者の混合に適用することができる。
レイヤやパラメータといったネットワークの内部構造にアクセスする必要はない。
論文 参考訳(メタデータ) (2023-04-03T09:01:59Z) - DeepVigor: Vulnerability Value Ranges and Factors for DNNs' Reliability
Assessment [1.189955933770711]
Deep Neural Networks(DNN)とそのアクセラレータは、安全クリティカルなアプリケーションに頻繁にデプロイされている。
本稿では,DeepVigorと呼ばれる,高精度,微粒化,メトリック指向,アクセラレーションに依存しない新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-13T08:55:10Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - Unveiling the potential of Graph Neural Networks for robust Intrusion
Detection [2.21481607673149]
本稿では,グラフとして構造化された攻撃の流れパターンを学習するための新しいグラフニューラルネットワーク(GNN)モデルを提案する。
我々のモデルは従来の実験と同等の精度を維持することができる一方、最先端のML技術は敵攻撃下で50%の精度(F1スコア)を低下させる。
論文 参考訳(メタデータ) (2021-07-30T16:56:39Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。