論文の概要: Black-Box Ripper: Copying black-box models using generative evolutionary
algorithms
- arxiv url: http://arxiv.org/abs/2010.11158v1
- Date: Wed, 21 Oct 2020 17:25:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 22:32:02.109303
- Title: Black-Box Ripper: Copying black-box models using generative evolutionary
algorithms
- Title(参考訳): Black-Box Ripper: 生成進化アルゴリズムを用いたブラックボックスモデルのコピー
- Authors: Antonio Barbalau, Adrian Cosma, Radu Tudor Ionescu, Marius Popescu
- Abstract要約: ブラックボックスニューラルモデルの機能を複製する作業について検討する。
ブラックボックスモデルによるバックプロパゲーションは不可能であると仮定する。
ブラックボックス(教師)モデルを学生モデルに蒸留できる教師学生フレームワークを提案する。
- 参考スコア(独自算出の注目度): 29.243901669124515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the task of replicating the functionality of black-box neural
models, for which we only know the output class probabilities provided for a
set of input images. We assume back-propagation through the black-box model is
not possible and its training images are not available, e.g. the model could be
exposed only through an API. In this context, we present a teacher-student
framework that can distill the black-box (teacher) model into a student model
with minimal accuracy loss. To generate useful data samples for training the
student, our framework (i) learns to generate images on a proxy data set (with
images and classes different from those used to train the black-box) and (ii)
applies an evolutionary strategy to make sure that each generated data sample
exhibits a high response for a specific class when given as input to the black
box. Our framework is compared with several baseline and state-of-the-art
methods on three benchmark data sets. The empirical evidence indicates that our
model is superior to the considered baselines. Although our method does not
back-propagate through the black-box network, it generally surpasses
state-of-the-art methods that regard the teacher as a glass-box model. Our code
is available at: https://github.com/antoniobarbalau/black-box-ripper.
- Abstract(参考訳): 我々は,入力画像の集合に提供される出力クラス確率のみを知るブラックボックスニューラルモデルの機能を複製する作業について検討した。
ブラックボックスモデルによるバックプロパゲーションは不可能であり、トレーニングイメージは利用できないと仮定します。
そこで本研究では,黒箱モデル(教師モデル)を最小精度損失で生徒モデルに蒸留できる教師学習フレームワークを提案する。
学生の学習に有用なデータサンプルを作成するためのフレームワーク
(i)プロキシデータセット(ブラックボックスのトレーニングに使われるものとは異なるイメージとクラス)で画像を生成することを学び、
i) ブラックボックスへの入力として与えられた各生成データサンプルが特定のクラスに対して高い応答を示すようにするための進化的戦略を適用する。
本フレームワークは,3つのベンチマークデータセットのベースラインおよび最先端手法と比較した。
実証的な証拠は、我々のモデルが考慮されたベースラインよりも優れていることを示している。
提案手法はブラックボックスネットワークをバックプロパゲートしないが,教師をガラスボックスモデルとみなす最先端の手法を概ね超越している。
私たちのコードは、https://github.com/antoniobarbalau/black-box-ripperで利用可能です。
関連論文リスト
- Black-Box Forgetting [8.84485103053191]
我々は,ブラックボックスフォーッティングというブラックボックスモデルの選択的忘れ問題に対処する。
本稿では,複数のトークン間で共通な低次元潜在成分をプロンプトに導入するLatent Context Sharingを提案する。
4つの標準ベンチマークデータセットに対する実験は、妥当なベースラインを持つ手法の優位性を実証している。
論文 参考訳(メタデータ) (2024-11-01T07:10:40Z) - FreeSeg-Diff: Training-Free Open-Vocabulary Segmentation with Diffusion Models [56.71672127740099]
我々は,閉鎖語彙データセットのトレーニングモデルによって伝統的に解決されるイメージセグメンテーションの課題に焦点をあてる。
我々は、ゼロショットのオープン語彙セグメンテーションのために、異なる、比較的小さなオープンソース基盤モデルを活用している。
当社のアプローチ(別名FreeSeg-Diff)は、トレーニングに依存しないもので、Pascal VOCとCOCOデータセットの両方で多くのトレーニングベースのアプローチより優れています。
論文 参考訳(メタデータ) (2024-03-29T10:38:25Z) - Towards Few-Call Model Stealing via Active Self-Paced Knowledge
Distillation and Diffusion-Based Image Generation [33.60710287553274]
そこで本研究では,ブラックボックスの分類モデルを,トレーニングデータやアーキテクチャ,重みなどにアクセスせずにコピーすることを提案する。
蒸留時にプロキシデータを最大限に活用するために,新たなアクティブなセルフペース学習フレームワークを採用している。
2つのデータセットに対する実験結果から,マルチコールモデル抽出シナリオにおける2つの最先端手法に対するフレームワークの優位性が確認された。
論文 参考訳(メタデータ) (2023-09-29T19:09:27Z) - DREAM: Domain-free Reverse Engineering Attributes of Black-box Model [51.37041886352823]
ブラックボックス対象モデルの属性をドメインに依存しないリバースエンジニアリングの新しい問題を提案する。
対象のブラックボックスモデルの属性を未知のトレーニングデータで推測するために,ドメインに依存しないモデルを学ぶ。
論文 参考訳(メタデータ) (2023-07-20T16:25:58Z) - Black-Box Batch Active Learning for Regression [1.52292571922932]
バッチアクティブな学習は、非ラベルデータセット上で機械学習モデルを効率的にトレーニングするための一般的なアプローチである。
ホワイトボックスアプローチの拡張として,回帰タスクのためのブラックボックスバッチアクティブラーニングを提案する。
論文 参考訳(メタデータ) (2023-02-17T16:35:47Z) - Black-box Few-shot Knowledge Distillation [55.27881513982002]
知識蒸留 (KD) は、大きな「教師」ネットワークからより小さな「学生」ネットワークへ知識を伝達する効率的な手法である。
そこで本研究では,未ラベルのトレーニングサンプルとブラックボックスの教師を用いて,学生を訓練するためのブラックボックス数ショットKD手法を提案する。
我々は、画像分類タスクにおいて、最近のSOTA/ゼロショットKD法よりも大幅に優れていることを示すため、広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-07-25T12:16:53Z) - How to Robustify Black-Box ML Models? A Zeroth-Order Optimization
Perspective [74.47093382436823]
入力クエリと出力フィードバックだけでブラックボックスモデルを堅牢化する方法?
我々は,ブラックボックスモデルに適用可能な防御操作の一般的な概念を提案し,それを復号化スムーシング(DS)のレンズを通して設計する。
我々は,ZO-AE-DSが既存のベースラインよりも精度,堅牢性,クエリの複雑さを向上できることを実証的に示す。
論文 参考訳(メタデータ) (2022-03-27T03:23:32Z) - Defending against Model Stealing via Verifying Embedded External
Features [90.29429679125508]
トレーニングサンプルがなく、モデルパラメータや構造にアクセスできない場合でも、敵はデプロイされたモデルを盗むことができる。
我々は、不審なモデルがディフェンダー特定遠近法の特徴の知識を含んでいるかどうかを検証することによって、他の角度からの防御を探索する。
本手法は, 複数段階の盗難処理によって盗難モデルが得られた場合でも, 同時に異なる種類の盗難モデルを検出するのに有効である。
論文 参考訳(メタデータ) (2021-12-07T03:51:54Z) - Can Explanations Be Useful for Calibrating Black Box Models? [31.473798197405948]
我々は,新しいドメインの例から,ブラックボックスモデルの性能を新しいドメインで改善する方法について検討する。
提案手法はまず,タスクに対する人間の直感とモデル属性を組み合わせた一連の特徴を抽出する。
キャリブレーション機能はタスク間である程度移動し、効果的に利用する方法について光を当てている。
論文 参考訳(メタデータ) (2021-10-14T17:48:16Z) - Visualising Deep Network's Time-Series Representations [93.73198973454944]
機械学習モデルの普及にもかかわらず、多くの場合、モデルの内部で起きていることに関する洞察のないブラックボックスとして運用される。
本稿では,多次元時系列データの可視化に着目し,この問題に対処する手法を提案する。
高周波在庫市場データセットの実験は、この方法が迅速かつ識別可能な可視化を提供することを示しています。
論文 参考訳(メタデータ) (2021-03-12T09:53:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。