論文の概要: AuthNet: Neural Network with Integrated Authentication Logic
- arxiv url: http://arxiv.org/abs/2405.15426v1
- Date: Fri, 24 May 2024 10:44:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-27 14:52:03.846954
- Title: AuthNet: Neural Network with Integrated Authentication Logic
- Title(参考訳): AuthNet: 統合認証論理を用いたニューラルネットワーク
- Authors: Yuling Cai, Fan Xiang, Guozhu Meng, Yinzhi Cao, Kai Chen,
- Abstract要約: 本稿では,認証ロジックをモデルの一部として統合する,AuthNetと呼ばれるネイティブ認証機構を提案する。
AuthNetは、あらゆる畳み込みニューラルネットワークと互換性があり、私たちの評価では、認証されていないユーザを拒否することで、AuthNetが目標を達成することに成功した。
- 参考スコア(独自算出の注目度): 19.56843040375779
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model stealing, i.e., unauthorized access and exfiltration of deep learning models, has become one of the major threats. Proprietary models may be protected by access controls and encryption. However, in reality, these measures can be compromised due to system breaches, query-based model extraction or a disgruntled insider. Security hardening of neural networks is also suffering from limits, for example, model watermarking is passive, cannot prevent the occurrence of piracy and not robust against transformations. To this end, we propose a native authentication mechanism, called AuthNet, which integrates authentication logic as part of the model without any additional structures. Our key insight is to reuse redundant neurons with low activation and embed authentication bits in an intermediate layer, called a gate layer. Then, AuthNet fine-tunes the layers after the gate layer to embed authentication logic so that only inputs with special secret key can trigger the correct logic of AuthNet. It exhibits two intuitive advantages. It provides the last line of defense, i.e., even being exfiltrated, the model is not usable as the adversary cannot generate valid inputs without the key. Moreover, the authentication logic is difficult to inspect and identify given millions or billions of neurons in the model. We theoretically demonstrate the high sensitivity of AuthNet to the secret key and its high confusion for unauthorized samples. AuthNet is compatible with any convolutional neural network, where our extensive evaluations show that AuthNet successfully achieves the goal in rejecting unauthenticated users (whose average accuracy drops to 22.03%) with a trivial accuracy decrease (1.18% on average) for legitimate users, and is robust against model transformation and adaptive attacks.
- Abstract(参考訳): モデル盗難、すなわち、ディープラーニングモデルの不正アクセスと流出は、主要な脅威の1つとなっている。
プロプライエタリモデルはアクセス制御と暗号化によって保護される。
しかし、実際には、これらの措置はシステム違反、クエリベースのモデル抽出、あるいは不満を抱いたインサイダーによって妥協される可能性がある。
ニューラルネットワークのセキュリティ強化は、例えば、モデル透かしは受動的であり、海賊行為の発生を防ぎ、変換に対して堅牢ではない、という制限に悩まされている。
そこで本研究では,認証ロジックをモデルの一部として統合する,AuthNetと呼ばれるネイティブ認証機構を提案する。
我々の重要な洞察は、余剰ニューロンを低活性化で再利用し、ゲート層と呼ばれる中間層に認証ビットを埋め込むことである。
次にAuthNetは、認証ロジックを埋め込むためにゲート層の後層を微調整し、特別な秘密鍵を持つ入力だけがAuthNetの正しいロジックをトリガーできるようにします。
直感的な2つの利点がある。
これは最後の防衛ライン、すなわち、たとえ流出しても、敵がキーなしで有効な入力を生成できないため、モデルは使用できない。
さらに、認証ロジックは、モデル内の数百万から数十億のニューロンを検査し識別することは困難である。
理論的には、秘密鍵に対するAuthNetの高感度と、無許可サンプルに対する高い混乱を実証する。
AuthNetは、任意の畳み込みニューラルネットワークと互換性があり、我々の広範な評価によると、AuthNetは、正当性のあるユーザ(平均精度が22.03%まで低下する)を、自明な精度低下(平均1.18%)で拒否する目標を達成することができ、モデル変換や適応攻撃に対して堅牢である。
関連論文リスト
- DeepiSign-G: Generic Watermark to Stamp Hidden DNN Parameters for Self-contained Tracking [15.394110881491773]
DeepiSign-Gは、CNNやRNNを含む主要なDNNアーキテクチャの包括的な検証のために設計された汎用的な透かし方式である。
従来のハッシュ技術とは異なり、DeepiSign-Gはモデルに直接メタデータを組み込むことができ、詳細な自己完結型トラッキングと検証を可能にする。
我々は,CNNモデル(VGG,ResNets,DenseNet)やRNN(テキスト感情分類器)など,さまざまなアーキテクチャにおけるDeepiSign-Gの適用性を実証する。
論文 参考訳(メタデータ) (2024-07-01T13:15:38Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - FreeEagle: Detecting Complex Neural Trojans in Data-Free Cases [50.065022493142116]
バックドア攻撃とも呼ばれるディープニューラルネットワークに対するトロイの木馬攻撃は、人工知能に対する典型的な脅威である。
FreeEagleは、複雑なバックドア攻撃を効果的に検出できる最初のデータフリーバックドア検出方法である。
論文 参考訳(メタデータ) (2023-02-28T11:31:29Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - Neural network fragile watermarking with no model performance
degradation [28.68910526223425]
モデル性能の劣化を伴わない新しいニューラルネットワーク脆弱な透かしを提案する。
実験の結果,提案手法はモデル性能劣化を伴わずに,悪質な微調整を効果的に検出できることが示唆された。
論文 参考訳(メタデータ) (2022-08-16T07:55:20Z) - PCPT and ACPT: Copyright Protection and Traceability Scheme for DNN
Models [13.043683635373213]
ディープニューラルネットワーク(DNN)は人工知能(AI)分野で大きな成功を収めている。
DNNモデルは、簡単に違法にコピーしたり、再配布したり、犯罪者に虐待されたりすることができる。
論文 参考訳(メタデータ) (2022-06-06T12:12:47Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Automatically Lock Your Neural Networks When You're Away [5.153873824423363]
ローカルな動的アクセス制御を備えたエンドツーエンドのニューラルネットワークを実現するモデルロック(M-LOCK)を提案する。
3種類のモデルトレーニング戦略は、1つのニューラルネットワークで認証された入力と疑似入力の間の膨大なパフォーマンスの相違を達成するために不可欠である。
論文 参考訳(メタデータ) (2021-03-15T15:47:54Z) - Deep Model Intellectual Property Protection via Deep Watermarking [122.87871873450014]
ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
低レベルのコンピュータビジョンや画像処理タスクで訓練されたディープネットワークを保護するための新しいモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T18:58:21Z) - DeepiSign: Invisible Fragile Watermark to Protect the Integrityand
Authenticity of CNN [37.98139322456872]
CNNモデルの完全性と信頼性を確保するために,自己完結型タンパー防止法DeepiSignを提案する。
DeepiSignは、壊れやすい見えない透かしのアイデアを適用して、秘密とそのハッシュ値をCNNモデルに安全に埋め込みます。
理論的解析により,DeepiSignは各層に最大1KBのシークレットを隠蔽し,モデルの精度を最小限に抑えることができた。
論文 参考訳(メタデータ) (2021-01-12T06:42:45Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。