論文の概要: Black-Box Ripper: Copying black-box models using generative evolutionary
algorithms
- arxiv url: http://arxiv.org/abs/2010.11158v1
- Date: Wed, 21 Oct 2020 17:25:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 22:32:02.109303
- Title: Black-Box Ripper: Copying black-box models using generative evolutionary
algorithms
- Title(参考訳): Black-Box Ripper: 生成進化アルゴリズムを用いたブラックボックスモデルのコピー
- Authors: Antonio Barbalau, Adrian Cosma, Radu Tudor Ionescu, Marius Popescu
- Abstract要約: ブラックボックスニューラルモデルの機能を複製する作業について検討する。
ブラックボックスモデルによるバックプロパゲーションは不可能であると仮定する。
ブラックボックス(教師)モデルを学生モデルに蒸留できる教師学生フレームワークを提案する。
- 参考スコア(独自算出の注目度): 29.243901669124515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the task of replicating the functionality of black-box neural
models, for which we only know the output class probabilities provided for a
set of input images. We assume back-propagation through the black-box model is
not possible and its training images are not available, e.g. the model could be
exposed only through an API. In this context, we present a teacher-student
framework that can distill the black-box (teacher) model into a student model
with minimal accuracy loss. To generate useful data samples for training the
student, our framework (i) learns to generate images on a proxy data set (with
images and classes different from those used to train the black-box) and (ii)
applies an evolutionary strategy to make sure that each generated data sample
exhibits a high response for a specific class when given as input to the black
box. Our framework is compared with several baseline and state-of-the-art
methods on three benchmark data sets. The empirical evidence indicates that our
model is superior to the considered baselines. Although our method does not
back-propagate through the black-box network, it generally surpasses
state-of-the-art methods that regard the teacher as a glass-box model. Our code
is available at: https://github.com/antoniobarbalau/black-box-ripper.
- Abstract(参考訳): 我々は,入力画像の集合に提供される出力クラス確率のみを知るブラックボックスニューラルモデルの機能を複製する作業について検討した。
ブラックボックスモデルによるバックプロパゲーションは不可能であり、トレーニングイメージは利用できないと仮定します。
そこで本研究では,黒箱モデル(教師モデル)を最小精度損失で生徒モデルに蒸留できる教師学習フレームワークを提案する。
学生の学習に有用なデータサンプルを作成するためのフレームワーク
(i)プロキシデータセット(ブラックボックスのトレーニングに使われるものとは異なるイメージとクラス)で画像を生成することを学び、
i) ブラックボックスへの入力として与えられた各生成データサンプルが特定のクラスに対して高い応答を示すようにするための進化的戦略を適用する。
本フレームワークは,3つのベンチマークデータセットのベースラインおよび最先端手法と比較した。
実証的な証拠は、我々のモデルが考慮されたベースラインよりも優れていることを示している。
提案手法はブラックボックスネットワークをバックプロパゲートしないが,教師をガラスボックスモデルとみなす最先端の手法を概ね超越している。
私たちのコードは、https://github.com/antoniobarbalau/black-box-ripperで利用可能です。
関連論文リスト
- Black-Box Batch Active Learning for Regression [1.52292571922932]
ホワイトボックスアプローチの拡張として,回帰タスクのためのブラックボックスバッチアクティブラーニングを提案する。
このアプローチは、幅広い機械学習モデルとランダムフォレストのような微分不可能なモデルと互換性がある。
回帰データセットに対する実験的な評価を通じて,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-02-17T16:35:47Z) - Black-box Few-shot Knowledge Distillation [55.27881513982002]
知識蒸留 (KD) は、大きな「教師」ネットワークからより小さな「学生」ネットワークへ知識を伝達する効率的な手法である。
そこで本研究では,未ラベルのトレーニングサンプルとブラックボックスの教師を用いて,学生を訓練するためのブラックボックス数ショットKD手法を提案する。
我々は、画像分類タスクにおいて、最近のSOTA/ゼロショットKD法よりも大幅に優れていることを示すため、広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-07-25T12:16:53Z) - Semantic keypoint-based pose estimation from single RGB frames [64.80395521735463]
一つのRGB画像からオブジェクトの連続6-DoFポーズを推定する手法を提案する。
このアプローチは、畳み込みネットワーク(convnet)によって予測されるセマンティックキーポイントと、変形可能な形状モデルを組み合わせる。
提案手法は,インスタンスベースのシナリオとクラスベースのシナリオの両方に対して,6-DoFオブジェクトのポーズを正確に復元できることを示す。
論文 参考訳(メタデータ) (2022-04-12T15:03:51Z) - How to Robustify Black-Box ML Models? A Zeroth-Order Optimization
Perspective [74.47093382436823]
入力クエリと出力フィードバックだけでブラックボックスモデルを堅牢化する方法?
我々は,ブラックボックスモデルに適用可能な防御操作の一般的な概念を提案し,それを復号化スムーシング(DS)のレンズを通して設計する。
我々は,ZO-AE-DSが既存のベースラインよりも精度,堅牢性,クエリの複雑さを向上できることを実証的に示す。
論文 参考訳(メタデータ) (2022-03-27T03:23:32Z) - Black-box Prompt Learning for Pre-trained Language Models [18.17029934303874]
この研究は、与えられた入力の出力を除いて、事前訓練されたモデルにアクセスできない新しいシナリオを考察する。
まず、事前に学習したモデルが凍結されているだけでなく、見えなくなるような、テキスト分類のブラックボックス設定を紹介します。
そこで我々は,事前学習コーパスから事前学習したモデルから学習した知識を活用できる,即時学習ファミリーの新しい手法であるブラックボックスプロンプトを提案する。
論文 参考訳(メタデータ) (2022-01-21T03:53:19Z) - Defending against Model Stealing via Verifying Embedded External
Features [90.29429679125508]
トレーニングサンプルがなく、モデルパラメータや構造にアクセスできない場合でも、敵はデプロイされたモデルを盗むことができる。
我々は、不審なモデルがディフェンダー特定遠近法の特徴の知識を含んでいるかどうかを検証することによって、他の角度からの防御を探索する。
本手法は, 複数段階の盗難処理によって盗難モデルが得られた場合でも, 同時に異なる種類の盗難モデルを検出するのに有効である。
論文 参考訳(メタデータ) (2021-12-07T03:51:54Z) - Can Explanations Be Useful for Calibrating Black Box Models? [31.473798197405948]
我々は,新しいドメインの例から,ブラックボックスモデルの性能を新しいドメインで改善する方法について検討する。
提案手法はまず,タスクに対する人間の直感とモデル属性を組み合わせた一連の特徴を抽出する。
キャリブレーション機能はタスク間である程度移動し、効果的に利用する方法について光を当てている。
論文 参考訳(メタデータ) (2021-10-14T17:48:16Z) - Generative Models as a Data Source for Multiview Representation Learning [38.56447220165002]
生成モデルは、訓練されたデータとほとんど区別できないリアルなイメージを生成することができる。
十分な生成モデルがあれば、まだデータセットが必要なのでしょうか?
ブラックボックス生成モデルから汎用的な視覚表現を学習する際の課題について検討する。
論文 参考訳(メタデータ) (2021-06-09T17:54:55Z) - Visualising Deep Network's Time-Series Representations [93.73198973454944]
機械学習モデルの普及にもかかわらず、多くの場合、モデルの内部で起きていることに関する洞察のないブラックボックスとして運用される。
本稿では,多次元時系列データの可視化に着目し,この問題に対処する手法を提案する。
高周波在庫市場データセットの実験は、この方法が迅速かつ識別可能な可視化を提供することを示しています。
論文 参考訳(メタデータ) (2021-03-12T09:53:34Z) - Design of Dynamic Experiments for Black-Box Model Discrimination [72.2414939419588]
選択したいような動的モデル判別の設定を考えてみましょう。 (i) 最高のメカニスティックな時間変化モデルと (ii) 最高のモデルパラメータ推定値です。
勾配情報にアクセス可能な競合する力学モデルに対しては、既存の手法を拡張し、より広い範囲の問題の不確実性を組み込む。
これらのブラックボックスモデルをガウス過程サロゲートモデルに置き換えることで、モデル識別設定を拡張して、競合するブラックボックスモデルをさらに取り入れる。
論文 参考訳(メタデータ) (2021-02-07T11:34:39Z) - Learning Global Transparent Models Consistent with Local Contrastive
Explanations [34.86847988157447]
ブラックボックスモデルについて,局所的な対照的な説明からカスタム機能を作成し,これらだけでグローバルに透過的なモデルをトレーニングする。
そこで本研究では,ブラックボックスモデルの局所的な対照的な説明からカスタムな特徴を創出し,その上にグローバルな透明なモデルをトレーニングする手法を提案する。
論文 参考訳(メタデータ) (2020-02-19T15:45:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。