論文の概要: Theory of Minimal Weight Perturbations in Deep Networks and its Applications for Low-Rank Activated Backdoor Attacks
- arxiv url: http://arxiv.org/abs/2601.16880v1
- Date: Fri, 23 Jan 2026 16:41:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.763188
- Title: Theory of Minimal Weight Perturbations in Deep Networks and its Applications for Low-Rank Activated Backdoor Attacks
- Title(参考訳): 深部ネットワークにおける最小重量摂動の理論と低域活性化バックドアアタックへの応用
- Authors: Bethan Evans, Jared Tanner,
- Abstract要約: 低ランク圧縮は、完全精度を維持しつつ、遅延バックドアを確実に活性化できることを示す。
これらの表現は、バックプロパゲートマージンが階層的な感度をどのように支配するかを明らかにし、最小のパラメータ更新が所望の出力シフトと一致していることを保証する。
- 参考スコア(独自算出の注目度): 6.292820411382416
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The minimal norm weight perturbations of DNNs required to achieve a specified change in output are derived and the factors determining its size are discussed. These single-layer exact formulae are contrasted with more generic multi-layer Lipschitz constant based robustness guarantees; both are observed to be of the same order which indicates similar efficacy in their guarantees. These results are applied to precision-modification-activated backdoor attacks, establishing provable compression thresholds below which such attacks cannot succeed, and show empirically that low-rank compression can reliably activate latent backdoors while preserving full-precision accuracy. These expressions reveal how back-propagated margins govern layer-wise sensitivity and provide certifiable guarantees on the smallest parameter updates consistent with a desired output shift.
- Abstract(参考訳): 特定の出力の変化を達成するのに必要なDNNの最小ノルム重量摂動を導出し、そのサイズを決定する要因について議論する。
これらの単層正確な公式は、より一般的な多層リプシッツ定数に基づくロバスト性保証と対比される。
これらの結果は、精度修正によって活性化されるバックドア攻撃に適用され、そのような攻撃が成功しない証明可能な圧縮しきい値を確立し、完全精度を維持しつつ、低ランク圧縮が遅延バックドアを確実に活性化できることを実証的に示す。
これらの表現は、バックプロパゲートマージンが階層的な感度をどのように支配するかを明らかにし、最小のパラメータ更新が所望の出力シフトと一致していることを保証する。
関連論文リスト
- The Eminence in Shadow: Exploiting Feature Boundary Ambiguity for Robust Backdoor Attacks [51.468144272905135]
深層ニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱なままでも重要なアプリケーションを支える。
バックドア攻撃を標的とした理論的解析を行い,不均質なモデル操作を実現するための疎い決定境界に着目した。
エミネンス(Eminence)は、理論的な保証と固有なステルス特性を持つ、説明可能で堅牢なブラックボックスバックドアフレームワークである。
論文 参考訳(メタデータ) (2025-12-11T08:09:07Z) - Decomposed Trust: Exploring Privacy, Adversarial Robustness, Fairness, and Ethics of Low-Rank LLMs [2.1311014724439845]
低ランクの要因化が、プライバシー、敵の堅牢性、公正性、倫理的整合性にどのように影響するかを研究する。
低ランク圧縮は、トレーニングデータのプライバシを保護または改善するが、会話中のPII保護を弱める。
敵の強靭性は一般に保存され、しばしば強化される。
倫理的推論はゼロショット設定では劣化するが、ほとんどショットのプロンプトで部分的に回復する。
論文 参考訳(メタデータ) (2025-11-27T04:40:56Z) - Unsupervised Conformal Inference: Bootstrapping and Alignment to Control LLM Uncertainty [49.19257648205146]
生成のための教師なし共形推論フレームワークを提案する。
我々のゲートは、分断されたUPPよりも厳密で安定した閾値を提供する。
その結果は、ラベルのない、API互換の、テスト時間フィルタリングのゲートになる。
論文 参考訳(メタデータ) (2025-09-26T23:40:47Z) - COIN: Uncertainty-Guarding Selective Question Answering for Foundation Models with Provable Risk Guarantees [51.5976496056012]
COINは、統計的に有効な閾値を校正し、質問毎に1つの生成された回答をフィルタリングする不確実性保護選択フレームワークである。
COINはキャリブレーションセット上で経験的誤差率を推定し、信頼区間法を適用して真誤差率に高い確率上界を確立する。
リスク管理におけるCOINの堅牢性,許容回答を維持するための強いテストタイムパワー,キャリブレーションデータによる予測効率を実証する。
論文 参考訳(メタデータ) (2025-06-25T07:04:49Z) - ConCISE: Confidence-guided Compression in Step-by-step Efficient Reasoning [64.93140713419561]
大型推論モデル (LRM) は、Chain-of-Thought (CoT) による複雑な推論タスクで強く機能するが、しばしば冗長な出力に悩まされる。
既存の微調整ベースの圧縮手法は、ポストホックプルーニングを動作させるか、コヒーレンスを推論する破壊を危険にさらすか、サンプリングベースの選択に依存するかのいずれかである。
ConCISEは、簡潔な推論連鎖を生成するために設計されたフレームワークであり、信頼注入を統合して推論の信頼性を高める。
論文 参考訳(メタデータ) (2025-05-08T01:40:40Z) - Evaluating Uncertainty in Deep Gaussian Processes [0.0]
ディープ・ガウス・プロセス(DGP)とディープ・シグマ・ポイント・プロセス(DSPP)はGPを階層的に拡張し、ベイズ原理に根ざした不確実性のための有望な方法を提供する。
本研究は、回帰(CASPデータセット)および分類(ESRデータセット)タスクに関するこれらのモデルを評価し、予測性能(MAE、Accu-Racy)の評価、負対数類似度(NLL)とエラー(ECE)を用いた校正を行う。
GP法では, 測定値に特異的な感度を呈し, 測定値の精度が向上し, 測定値の精度が向上した。
論文 参考訳(メタデータ) (2025-04-24T16:31:55Z) - Alpha-VI DeepONet: A prior-robust variational Bayesian approach for enhancing DeepONets with uncertainty quantification [0.0]
一般化変分推論(GVI)を組み込んだ新しいディープオペレータネットワーク(DeepONet)を提案する。
分岐ネットワークとトランクネットワークのビルディングブロックとしてベイズニューラルネットワークを組み込むことで,不確実な定量化が可能なDeepONetを実現する。
変動目的関数の修正は平均二乗誤差を最小化する点で優れた結果をもたらすことを示す。
論文 参考訳(メタデータ) (2024-08-01T16:22:03Z) - Soft ascent-descent as a stable and flexible alternative to flooding [6.527016551650139]
我々は,軟化・ポイントワイド機構であるSoftADを提案する。この機構は,降水量と降水量の影響を制限し,洪水の上昇・昇華効果を維持できる。
我々は,より小さな損失一般化ギャップとモデル規範を享受しながら,浸水と競合する分類精度をSoftADが実現できることを実証する。
論文 参考訳(メタデータ) (2023-10-16T02:02:56Z) - Lightweight Attribute Localizing Models for Pedestrian Attribute Recognition [13.480231032159834]
本稿では,圧縮モデルの勾配方向が元のモデルと密接に一致していることを保証するため,低ランク層の最適ランクを決定する新しい手法を提案する。
これは、圧縮されたモデルはフルモデルの更新方向を効果的に保存し、歩行者属性認識タスクのより効率的な圧縮を可能にすることを意味する。
論文 参考訳(メタデータ) (2023-06-16T13:07:13Z) - Learning, compression, and leakage: Minimising classification error via
meta-universal compression principles [87.054014983402]
学習シナリオのための圧縮技法の有望なグループは、正規化極大(NML)符号化である。
ここでは,教師付き分類問題に対するNMLに基づく意思決定戦略を検討し,多種多様なモデルに適用した場合にPAC学習を実現することを示す。
本手法の誤分類率は,プライバシに敏感なシナリオにおいて,データ漏洩の可能性を定量化するための指標である最大リークによって上限づけられていることを示す。
論文 参考訳(メタデータ) (2020-10-14T20:03:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。