論文の概要: Authority Backdoor: A Certifiable Backdoor Mechanism for Authoring DNNs
- arxiv url: http://arxiv.org/abs/2512.10600v1
- Date: Thu, 11 Dec 2025 12:50:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.361366
- Title: Authority Backdoor: A Certifiable Backdoor Mechanism for Authoring DNNs
- Title(参考訳): オーソリティバックドア:DNNのオーサリングのための認証されたバックドアメカニズム
- Authors: Han Yang, Shaofeng Li, Tian Dong, Xiangyu Xu, Guangchi Liu, Zhen Ling,
- Abstract要約: ディープニューラルネットワーク(DNN)は貴重な知的財産であり、無許可の使用に直面している。
この研究は、アクセス制約を直接モデルに組み込む「オーソリティバックドア」と呼ばれるプロアクティブプロテクションスキームを提案する。
- 参考スコア(独自算出の注目度): 17.259970385555004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs), as valuable intellectual property, face unauthorized use. Existing protections, such as digital watermarking, are largely passive; they provide only post-hoc ownership verification and cannot actively prevent the illicit use of a stolen model. This work proposes a proactive protection scheme, dubbed ``Authority Backdoor," which embeds access constraints directly into the model. In particular, the scheme utilizes a backdoor learning framework to intrinsically lock a model's utility, such that it performs normally only in the presence of a specific trigger (e.g., a hardware fingerprint). But in its absence, the DNN's performance degrades to be useless. To further enhance the security of the proposed authority scheme, the certifiable robustness is integrated to prevent an adaptive attacker from removing the implanted backdoor. The resulting framework establishes a secure authority mechanism for DNNs, combining access control with certifiable robustness against adversarial attacks. Extensive experiments on diverse architectures and datasets validate the effectiveness and certifiable robustness of the proposed framework.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、貴重な知的財産として、無許可の使用に直面している。
既存の保護、例えばデジタル透かしは、主に受動的であり、それらはポストホックの所有権認証のみを提供し、盗まれたモデルの不正使用を積極的に防ぐことはできない。
この研究は ‘Authority Backdoor’ と呼ばれるプロアクティブな保護スキームを提案し、モデルに直接アクセス制約を埋め込む。
特に、バックドア学習フレームワークを使用して、特定のトリガー(例えば、ハードウェア指紋)の存在下でのみ正常に動作するように、モデルの有用性を本質的にロックする。
しかし、DNNの欠如により、性能は低下する。
提案手法の安全性をさらに高めるため、適応攻撃者が埋め込んだバックドアを除去しないように、証明可能なロバスト性を統合する。
結果として得られるフレームワークは、DNNの安全な権限機構を確立し、アクセス制御と敵攻撃に対する認証された堅牢性を組み合わせる。
多様なアーキテクチャとデータセットに関する大規模な実験は、提案したフレームワークの有効性と証明可能な堅牢性を検証する。
関連論文リスト
- Towards Effective, Stealthy, and Persistent Backdoor Attacks Targeting Graph Foundation Models [62.87838888016534]
Graph Foundation Models(GFM)は、さまざまなソースドメインで事前トレーニングされ、目に見えないターゲットに適応する。
GFMに対するバックドア攻撃は、3つの主要な課題のために簡単ではない。
グラフ基礎モデルに対する新たなバックドア攻撃モデルであるGFM-BAを提案する。
論文 参考訳(メタデータ) (2025-11-22T08:52:09Z) - MARS: A Malignity-Aware Backdoor Defense in Federated Learning [51.77354308287098]
最近提案されたSOTA攻撃(3DFed)は、ディフェンダーがバックドアモデルを受け入れたかどうかを判断するためにインジケータ機構を使用する。
本稿では,各ニューロンの有害な範囲を示すためにバックドアエネルギーを利用するMARS(Maignity-Aware backdooR defenSe)を提案する。
実験により、MARSはSOTAのバックドア攻撃に対して防御でき、既存の防御を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2025-09-21T14:50:02Z) - REFINE: Inversion-Free Backdoor Defense via Model Reprogramming [60.554146386198376]
ディープニューラルネットワーク(DNN)に対するバックドア攻撃は、重大なセキュリティ脅威として浮上している。
モデル再プログラミングに基づく逆フリーバックドア防御手法であるREFINEを提案する。
論文 参考訳(メタデータ) (2025-02-22T07:29:12Z) - To Think or Not to Think: Exploring the Unthinking Vulnerability in Large Reasoning Models [56.19026073319406]
大規模推論モデル (LRM) は、最終的な答えを生成する前に明確な推論トレースを生成することで複雑なタスクを解決するように設計されている。
LRM(Unthinking)と呼ばれる重要な脆弱性を明らかにし、特別なトークンを操作することで思考プロセスを回避できます。
本稿では,この脆弱性を悪意と有益の両方の観点から検討する。
論文 参考訳(メタデータ) (2025-02-16T10:45:56Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - RIBAC: Towards Robust and Imperceptible Backdoor Attack against Compact
DNN [28.94653593443991]
近年のバックドア攻撃は、ディープニューラルネットワーク(DNN)モデルのセキュリティに対する新たな脅威となっている。
本稿では,コンパクトDNNモデル(RIBAC)に対するロバストおよび非受容性バックドアアタックの研究と開発について述べる。
論文 参考訳(メタデータ) (2022-08-22T21:27:09Z) - PCPT and ACPT: Copyright Protection and Traceability Scheme for DNN
Models [13.043683635373213]
ディープニューラルネットワーク(DNN)は人工知能(AI)分野で大きな成功を収めている。
DNNモデルは、簡単に違法にコピーしたり、再配布したり、犯罪者に虐待されたりすることができる。
論文 参考訳(メタデータ) (2022-06-06T12:12:47Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - ActiveGuard: An Active DNN IP Protection Technique via Adversarial
Examples [10.058070050660104]
ActiveGuard は、認証済みユーザーと不正ユーザーを区別するために、ユーザーの指紋として敵の例を利用します。
オーナシップ検証では,DNNモデルの通常の性能には影響しないが,組込み透かしをうまく抽出することができる。
論文 参考訳(メタデータ) (2021-03-02T07:16:20Z) - Deep-Lock: Secure Authorization for Deep Neural Networks [9.0579592131111]
ディープニューラルネットワーク(DNN)モデルは、いくつかのビジネスモデルにおいて価値のある知的特性(IP)と見なされている。
このようなDNNモデルのIP盗難や不正使用の防止は、業界で重要な懸念事項となっている。
そこで本研究では,ロックされたモデルが正しい秘密鍵を適用した場合にのみ正しく機能することを保証する,汎用的で軽量なキーベースモデルロック方式を提案する。
論文 参考訳(メタデータ) (2020-08-13T15:22:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。