論文の概要: Why Neural Structural Obfuscation Can't Kill White-Box Watermarks for Good!
- arxiv url: http://arxiv.org/abs/2603.12679v1
- Date: Fri, 13 Mar 2026 05:50:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.926139
- Title: Why Neural Structural Obfuscation Can't Kill White-Box Watermarks for Good!
- Title(参考訳): ニューラルネットワークはなぜホワイトボックスの透かしを消せないのか?
- Authors: Yanna Jiang, Guangsheng Yu, Qingyuan Yu, Yi Chen, Qin Wang,
- Abstract要約: ニューラル構造難読化(Neural Structure Obfuscation、NSO)は、ダミーニューロンを注入するゼロコストの構造編集変換のファミリーである。
この機能は、既存のホワイトボックス透かし方式の信頼性に対する根本的な課題である。
我々は、攻撃されたモデルを探索し、その後、ネットワークを標準化するリカバリフレームワークである textscCanon を提示する。
- 参考スコア(独自算出の注目度): 6.326416698505429
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Structural Obfuscation (NSO) (USENIX Security'23) is a family of ``zero cost'' structure-editing transforms (\texttt{nso\_zero}, \texttt{nso\_clique}, \texttt{nso\_split}) that inject dummy neurons. By combining neuron permutation and parameter scaling, NSO makes a radical modification to the network structure and parameters while strictly preserving functional equivalence, thereby disrupting white-box watermark verification. This capability has been a fundamental challenge to the reliability of existing white-box watermarking schemes. We rethink NSO and, for the first time, fully recover from the damage it has caused. We redefine NSO as a graph-consistent threat model within a \textit{producer--consumer} paradigm. This formulation posits that any obfuscation of a producer node necessitates a compatible layout update in all downstream consumers to maintain structural integrity. Building on these consistency constraints on signal propagation, we present \textsc{Canon}, a recovery framework that probes the attacked model to identify redundancy/dummy channels and then \textit{globally} canonicalizes the network by rewriting \textit{all} downstream consumers by construction, synchronizing layouts across \texttt{fan-out}, \texttt{add}, and \texttt{cat}. Extensive experiments demonstrate that, even under strong composed and extended NSO attacks, \textsc{Canon} achieves \textbf{100\%} recovery success, restoring watermark verifiability while preserving task utility. Our code is available at https://anonymous.4open.science/r/anti-NSO-9874.
- Abstract(参考訳): ニューラル構造難読化(Neural Structure Obfuscation, NSO) (USENIX Security'23) は、ダミーニューロンを注入する ' 'zero Cost''' 構造編集変換 (\texttt{nso\_zero}, \texttt{nso\_clique}, \texttt{nso\_split}) の族である。
ニューロンの置換とパラメータのスケーリングを組み合わせることで、NSOは機能的等価性を厳密に保ちながらネットワーク構造とパラメータを根本的に変更し、ホワイトボックスの透かし検証を妨害する。
この機能は、既存のホワイトボックス透かし方式の信頼性に対する根本的な課題である。
我々はNSOを再考し、初めて、それが引き起こした損害から完全に回復した。
我々は NSO を \textit{producer--consumer} パラダイム内のグラフ一貫性脅威モデルとして再定義する。
この定式化は、プロデューサノードの難読化は、構造的整合性を維持するために、下流のすべてのコンシューマの互換性のあるレイアウト更新を必要とすることを示唆している。
これは、攻撃されたモデルを調べて冗長性/ダミーチャネルを識別し、次に \textit{globally} がダウンストリームコンシューマを構築によって書き直し、 \texttt{fan-out} 、 \texttt{add} 、 \texttt{cat} にまたがるレイアウトを同期することで、ネットワークを標準化する回復フレームワークである。
大規模な実験により、強い構成と拡張されたNSO攻撃の下でも、 \textsc{Canon} は \textbf{100\%} 回復の成功を達成し、タスクユーティリティを維持しながら透かしの妥当性を回復することを示した。
私たちのコードはhttps://anonymous.4open.science/r/anti-NSO-9874で利用可能です。
関連論文リスト
- Knowing without Acting: The Disentangled Geometry of Safety Mechanisms in Large Language Models [7.2244242918075825]
安全性計算は、textit Axis(mathbfv_H$, Knowing''')とtextitExecution Axis(mathbfv_R$, Acting'')の2つの部分空間で動作することを示す。
我々は,この拒絶機構を外科的に破壊することにより,最先端の攻撃成功率を実現するtextbfRefusal Erasure Attack (REA)を提案する。
論文 参考訳(メタデータ) (2026-03-06T00:14:09Z) - Reverse-Engineering Model Editing on Language Models [13.281350510944383]
textitKSTER (textbfKeytextbfSpaceReconstextbfTruction-then-textbfEntropytextbfReduction) という2段階のリバースエンジニアリング攻撃を提案する。
我々の攻撃は、高い成功率で編集されたデータを復元することができる。
論文 参考訳(メタデータ) (2026-02-07T08:35:59Z) - Taming SAM3 in the Wild: A Concept Bank for Open-Vocabulary Segmentation [57.427604620940734]
TextscConceptBankは、視覚的証拠とプロンプトの整合性を取り戻すためのフレームワークだ。
我々のアプローチは、クラスワイドなビジュアルプロトタイプによるターゲットドメインの証拠をアンロックし、(textitii)マイニングの代表者はデータドリフト下でのアウトリーチを抑えることをサポートし、(textitiii)コンセプトドリフトの修正のために候補概念を融合させる。
論文 参考訳(メタデータ) (2026-02-06T02:59:11Z) - Compression is Routing: Reconstruction Error as an Intrinsic Signal for Modular Language Models [0.0]
「この論文は、圧縮は知性である」という前提に基づいている。」
それは新しいアーキテクチャ哲学を提唱している: 圧縮はルーティングである。
超長期のコンテキストを扱うために、VRAM圧縮の新たな視点を提供する。
論文 参考訳(メタデータ) (2025-12-18T09:02:03Z) - From Feature Interaction to Feature Generation: A Generative Paradigm of CTR Prediction Models [81.43473418572567]
CTR(Click-Through Rate)予測は、レコメンデーションシステムにおける中核的なタスクである。
本稿では,埋め込み次元の崩壊と情報冗長性に対処する新しい生成フレームワークを提案する。
SFGは埋没崩壊を緩和し,情報冗長性を低減し,性能向上を図っている。
論文 参考訳(メタデータ) (2025-12-16T03:17:18Z) - Generative Myopia: Why Diffusion Models Fail at Structure [0.6768558752130311]
グラフ拡散モデル(GDM)は統計確率を最適化し、textbf frequency filters(英語版)として暗黙的に機能する。
我々は、この失敗がtextbfGradient Starvation によって引き起こされることを理論的、実証的に証明する。
textbfSpectrally-Weighted Diffusionを導入する。
論文 参考訳(メタデータ) (2025-11-23T19:27:13Z) - Sparse by Rule: Probability-Based N:M Pruning for Spiking Neural Networks [66.61171793101872]
スパイキングニューラルネットワーク(SNN)は、イベント駆動のスパース計算を通じてエネルギー効率の高いインテリジェンスを約束するが、より深いアーキテクチャはパラメータと計算コストを増大させ、エッジデプロイメントを妨げている。
SNNプルーニングの最近の進歩は、この負担を軽減するのに役立っているが、既存の取り組みは、スパシティが高いが一般的なハードウェアでは加速が難しいインハン構造化プルーニング(emphunstructured pruning)と、デプロイが容易だが柔軟性に欠けるエンハン構造化プルーニング(emphstructured pruning)の2つのファミリーに限られる。
最初のSNNであるbfSpikeNMを紹介する。
論文 参考訳(メタデータ) (2025-11-15T08:23:20Z) - Iterative Sketching for Secure Coded Regression [66.53950020718021]
分散線形回帰を高速化する手法を提案する。
具体的には、方程式の系の基礎をランダムに回転させ、次にサブサンプルブロックを回転させ、情報を同時に確保し、回帰問題の次元を小さくする。
論文 参考訳(メタデータ) (2023-08-08T11:10:42Z) - Unsupervised Semantic Segmentation by Distilling Feature Correspondences [94.73675308961944]
教師なしセマンティックセグメンテーション(unsupervised semantic segmentation)は、アノテーションなしで画像コーパス内の意味論的意味のあるカテゴリを発見し、ローカライズすることを目的としている。
STEGOは、教師なし特徴を高品質な個別のセマンティックラベルに蒸留する新しいフレームワークである。
STEGOは、CocoStuffとCityscapesの両課題において、先行技術よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-03-16T06:08:47Z) - All you need is a second look: Towards Tighter Arbitrary shape text
detection [80.85188469964346]
長い曲線のテキストインスタンスは、CNNの受信フィールドサイズが制限されているため、断片化されがちである。
矩形や四角形のバウンディングボックスを用いた単純な表現は、より難しい任意の形のテキストを扱う際に不足する。
textitNASKは、予測された幾何学的属性を使用して、より厳密な表現でテキストインスタンスを再構築する。
論文 参考訳(メタデータ) (2020-04-26T17:03:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。