論文の概要: Stealing Black-Box Functionality Using The Deep Neural Tree Architecture
- arxiv url: http://arxiv.org/abs/2002.09864v1
- Date: Sun, 23 Feb 2020 09:04:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 09:39:04.984541
- Title: Stealing Black-Box Functionality Using The Deep Neural Tree Architecture
- Title(参考訳): deep neural tree architectureを使ってブラックボックス機能を盗む
- Authors: Daniel Teitelman, Itay Naeh and Shie Mannor
- Abstract要約: 本稿では,Deep Neural Trees (DNT) という機械学習(ML)アーキテクチャを導入することで,ブラックボックスモデルの機能のクローン化に向けて大きな一歩を踏み出した。
能動的学習アルゴリズムを用いてDNTを訓練し,より高速でよりサンプル効率の高いトレーニングを実現することを提案する。
トレーニングされたDNTモジュールは、攻撃されたモジュールとして機能するだけでなく、提案したアーキテクチャのツリーのような性質のため、クローンモデルにある程度の説明性を提供する。
- 参考スコア(独自算出の注目度): 52.676349798710106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper makes a substantial step towards cloning the functionality of
black-box models by introducing a Machine learning (ML) architecture named Deep
Neural Trees (DNTs). This new architecture can learn to separate different
tasks of the black-box model, and clone its task-specific behavior. We propose
to train the DNT using an active learning algorithm to obtain faster and more
sample-efficient training. In contrast to prior work, we study a complex
"victim" black-box model based solely on input-output interactions, while at
the same time the attacker and the victim model may have completely different
internal architectures. The attacker is a ML based algorithm whereas the victim
is a generally unknown module, such as a multi-purpose digital chip, complex
analog circuit, mechanical system, software logic or a hybrid of these. The
trained DNT module not only can function as the attacked module, but also
provides some level of explainability to the cloned model due to the tree-like
nature of the proposed architecture.
- Abstract(参考訳): 本稿では,Deep Neural Trees (DNT) という機械学習(ML)アーキテクチャを導入することで,ブラックボックスモデルの機能のクローン化に向けて大きな一歩を踏み出した。
この新しいアーキテクチャでは、ブラックボックスモデルの異なるタスクを分離し、タスク固有の振る舞いをクローンすることができる。
能動的学習アルゴリズムを用いてDNTを訓練し,より高速でよりサンプル効率の高いトレーニングを実現することを提案する。
先行研究とは対照的に,入力-出力インタラクションのみに基づいた複雑な"勝利"ブラックボックスモデルと,アタッカーと被害者モデルが完全に異なる内部アーキテクチャを持つ可能性について検討した。
攻撃者はMLベースのアルゴリズムであるのに対して、被害者は多目的デジタルチップ、複雑なアナログ回路、機械システム、ソフトウェアロジック、ハイブリッドなど、一般的に未知のモジュールである。
トレーニングされたDNTモジュールは攻撃されたモジュールとして機能するだけでなく、提案アーキテクチャのツリーのような性質のため、クローンモデルにある程度の説明性を提供する。
関連論文リスト
- Cliqueformer: Model-Based Optimization with Structured Transformers [102.55764949282906]
我々は、MBOタスクの構造を学習し、経験的に改良された設計につながるモデルを開発する。
我々はCliqueformerを、高次元のブラックボックス機能から、化学・遺伝設計の現実的なタスクまで、様々なタスクで評価する。
論文 参考訳(メタデータ) (2024-10-17T00:35:47Z) - Exploiting the Vulnerability of Large Language Models via Defense-Aware Architectural Backdoor [0.24335447922683692]
基盤となるモデルアーキテクチャ内に隠蔽する新しいタイプのバックドアアタックを導入します。
モデルアーキテクチャレイヤのアドオンモジュールは、入力トリガトークンの存在を検出し、レイヤの重みを変更することができる。
我々は,5つの大言語データセットの2つのモデルアーキテクチャ設定を用いて,攻撃方法を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-09-03T14:54:16Z) - Training Neural Networks with Internal State, Unconstrained
Connectivity, and Discrete Activations [66.53734987585244]
真のインテリジェンスには、内部状態を管理するマシンラーニングモデルが必要だ。
このようなモデルのトレーニングに最も効果的なアルゴリズムは,まだ発見されていない。
このようなトレーニングアルゴリズムを2進アクティベーションと1つの重みの行列のみを持つアーキテクチャに適用する試みについて述べる。
論文 参考訳(メタデータ) (2023-12-22T01:19:08Z) - DREAM: Domain-free Reverse Engineering Attributes of Black-box Model [51.37041886352823]
ブラックボックス対象モデルの属性をドメインに依存しないリバースエンジニアリングの新しい問題を提案する。
対象のブラックボックスモデルの属性を未知のトレーニングデータで推測するために,ドメインに依存しないモデルを学ぶ。
論文 参考訳(メタデータ) (2023-07-20T16:25:58Z) - Explainable Intrusion Detection Systems Using Competitive Learning
Techniques [0.0]
我々はDARPAが推奨する説明可能なシステムに基づくX-IDSアーキテクチャを作成する。
私たちは、自己組織化マップ(SOM)、自己組織化マップ(Growing Self Organizing Maps、GSOM)、階層的自己組織化マップ(Growing Hierarchical Self Organizing Map、GHSOM)といったCLアルゴリズムを活用しています。
我々のアーキテクチャはNSL-KDDとCIC-IDS-2017ベンチマークデータセットを用いてテストされ、EBLモデルよりも1% - 3%低い精度で生成する。
論文 参考訳(メタデータ) (2023-03-30T13:58:47Z) - Improving the Robustness of Deep Convolutional Neural Networks Through
Feature Learning [23.5067878531607]
深層畳み込みニューラルネットワーク(DCNN: Deep Convolutional Neural Network)モデルは、小さな摂動のある例に対して脆弱である。
逆トレーニング(略してAT)は、データ拡張によるDCNNモデルの堅牢性を高めるために広く用いられている手法である。
本稿では,どのバックボーンにも組み込むことのできる浅いバイナリ機能モジュール(略してSBFM)を提案する。
論文 参考訳(メタデータ) (2023-03-11T15:22:29Z) - How to Robustify Black-Box ML Models? A Zeroth-Order Optimization
Perspective [74.47093382436823]
入力クエリと出力フィードバックだけでブラックボックスモデルを堅牢化する方法?
我々は,ブラックボックスモデルに適用可能な防御操作の一般的な概念を提案し,それを復号化スムーシング(DS)のレンズを通して設計する。
我々は,ZO-AE-DSが既存のベースラインよりも精度,堅牢性,クエリの複雑さを向上できることを実証的に示す。
論文 参考訳(メタデータ) (2022-03-27T03:23:32Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。