論文の概要: Provable Repair of Deep Neural Network Defects by Preimage Synthesis and Property Refinement
- arxiv url: http://arxiv.org/abs/2511.07741v1
- Date: Wed, 12 Nov 2025 01:14:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.454881
- Title: Provable Repair of Deep Neural Network Defects by Preimage Synthesis and Property Refinement
- Title(参考訳): プリメージ合成と特性保持によるディープニューラルネットワーク欠陥の修復
- Authors: Jianan Ma, Jingyi Wang, Qi Xuan, Zhen Wang,
- Abstract要約: ProRepairは、フォーマルなプレイメージ合成とプロパティリファインメントによって駆動される、新しいプロプライ可能なニューラルネットワーク修復フレームワークである。
6つのベンチマークで4つのセキュリティ脅威修正タスクで評価し、その結果、既存のメソッドの効率性、効率性、スケーラビリティに優れていたことを実証した。
- 参考スコア(独自算出の注目度): 11.183772232721068
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: It is known that deep neural networks may exhibit dangerous behaviors under various security threats (e.g., backdoor attacks, adversarial attacks and safety property violation) and there exists an ongoing arms race between attackers and defenders. In this work, we propose a complementary perspective to utilize recent progress on "neural network repair" to mitigate these security threats and repair various kinds of neural network defects (arising from different security threats) within a unified framework, offering a potential silver bullet solution to real-world scenarios. To substantially push the boundary of existing repair techniques (suffering from limitations such as lack of guarantees, limited scalability, considerable overhead, etc) in addressing more practical contexts, we propose ProRepair, a novel provable neural network repair framework driven by formal preimage synthesis and property refinement. The key intuitions are: (i) synthesizing a precise proxy box to characterize the feature space preimage, which can derive a bounded distance term sufficient to guide the subsequent repair step towards the correct outputs, and (ii) performing property refinement to enable surgical corrections and scale to more complex tasks. We evaluate ProRepair across four security threats repair tasks on six benchmarks and the results demonstrate it outperforms existing methods in effectiveness, efficiency and scalability. For point-wise repair, ProRepair corrects models while preserving performance and achieving significantly improved generalization, with a speedup of 5x to 2000x over existing provable approaches. In region-wise repair, ProRepair successfully repairs all 36 safety property violation instances (compared to 8 by the best existing method), and can handle 18x higher dimensional spaces.
- Abstract(参考訳): ディープニューラルネットワークは、様々なセキュリティ上の脅威(例えば、バックドア攻撃、敵攻撃、および安全財産侵害)の下で危険な行動を示す可能性があることが知られており、攻撃者と防衛者の間で進行中の武器競争が存在する。
本研究では、これらのセキュリティ脅威を緩和し、統合されたフレームワーク内で様々な種類のニューラルネットワーク欠陥(異なるセキュリティ脅威から生じる)を修復するために、「ニューラルネットワーク修復」の最近の進歩を活用するための補完的な視点を提案する。
既存の修復技術の境界線(保証の欠如、スケーラビリティの制限、かなりのオーバーヘッドなど)を現実的な状況で実現するために,我々はProRepairを提案する。
主な直観は次の通りである。
一 特徴空間前像を特徴付けるための精密なプロキシボックスを合成すること。これは、後続の修理工程を正しい出力に向けて導くのに十分な有界距離項を導出することができる。
二 外科的矯正を可能とし、より複雑な業務に規模を拡大する資産改良を行うこと。
ProRepairは6つのベンチマークで4つのセキュリティ脅威修正タスクにまたがって評価し、その結果、有効性、効率、スケーラビリティにおいて既存の手法よりも優れていることを示した。
ProRepairは性能を保ちながらモデルを修正し、既存の証明可能なアプローチよりも5倍から2000倍の高速化を実現した。
地域レベルでの修復では、ProRepairは36の安全財産侵害インスタンス(最も優れた既存手法で8に比較)の修復に成功し、18倍の高次元空間を処理できる。
関連論文リスト
- CARE: Decoding Time Safety Alignment via Rollback and Introspection Intervention [68.95008546581339]
Contrastive Decodingのような既存のデコーディングタイムの介入は、安全と応答品質の間に深刻なトレードオフを強いることが多い。
本稿では,3つの重要なコンポーネントを統合した,復号時安全アライメントのための新しいフレームワークであるCAREを提案する。
このフレームワークは、安全性、品質、効率のバランスが良く、有害な応答率が低く、ユーザエクスペリエンスを最小限に破壊できる。
論文 参考訳(メタデータ) (2025-09-01T04:50:02Z) - REFINE: Inversion-Free Backdoor Defense via Model Reprogramming [60.554146386198376]
ディープニューラルネットワーク(DNN)に対するバックドア攻撃は、重大なセキュリティ脅威として浮上している。
モデル再プログラミングに基づく逆フリーバックドア防御手法であるREFINEを提案する。
論文 参考訳(メタデータ) (2025-02-22T07:29:12Z) - Patch Synthesis for Property Repair of Deep Neural Networks [15.580097790702508]
我々は、ディープニューラルネットワーク(DNN)のプロパティレベル修復のためのパッチベースの新しいアプローチであるPatchProを紹介する。
PatchProは、ネットワークの本来の性能を維持しながら、ロバストネス地区内のすべてのサンプルに特別な修復を提供する。
本手法は, 正当性検証とパッチモジュール割当機構を組み込んで, 敵攻撃に対する防御を可能にする。
論文 参考訳(メタデータ) (2024-04-02T05:16:59Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - A Robust Optimisation Perspective on Counterexample-Guided Repair of
Neural Networks [2.82532357999662]
本稿では, 逆例誘導修復をロバストな最適化アルゴリズムとみなすことができることを示す。
我々は、より抑制された機械学習モデルに対する終端を証明し、一般的な環境での終端を証明した。
論文 参考訳(メタデータ) (2023-01-26T19:00:02Z) - Neural Network Repair with Reachability Analysis [10.384532888747993]
安全は次世代の自律性にとって重要な問題であり、知覚と制御のためにディープニューラルネットワークに大きく依存する可能性が高い。
本研究は,安全クリティカルシステムにおける安全でないDNNを到達可能性解析で修復する枠組みを提案する。
論文 参考訳(メタデータ) (2021-08-09T17:56:51Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Transferable, Controllable, and Inconspicuous Adversarial Attacks on
Person Re-identification With Deep Mis-Ranking [83.48804199140758]
システム出力のランキングを乱す学習とミスランクの定式化を提案する。
また,新たなマルチステージネットワークアーキテクチャを開発することで,バックボックス攻撃を行う。
そこで本手法では, 異なるマルチショットサンプリングにより, 悪意のある画素数を制御することができる。
論文 参考訳(メタデータ) (2020-04-08T18:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。