論文の概要: DREAM: Domain-agnostic Reverse Engineering Attributes of Black-box Model
- arxiv url: http://arxiv.org/abs/2412.05842v1
- Date: Sun, 08 Dec 2024 07:37:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:57:22.074774
- Title: DREAM: Domain-agnostic Reverse Engineering Attributes of Black-box Model
- Title(参考訳): DREAM: Black-box モデルのドメインに依存しないリバースエンジニアリング属性
- Authors: Rongqing Li, Jiaqi Yu, Changsheng Li, Wenhan Luo, Ye Yuan, Guoren Wang,
- Abstract要約: 対象モデルのトレーニングデータセットの可用性を必要とせずに,ブラックボックスリバースエンジニアリングの新たな問題を提案する。
対象のブラックボックスモデルの属性を未知のトレーニングデータで推測するために,ドメインに依存しないメタモデルを学ぶ。
- 参考スコア(独自算出の注目度): 50.94236887900527
- License:
- Abstract: Deep learning models are usually black boxes when deployed on machine learning platforms. Prior works have shown that the attributes (e.g., the number of convolutional layers) of a target black-box model can be exposed through a sequence of queries. There is a crucial limitation: these works assume the training dataset of the target model is known beforehand and leverage this dataset for model attribute attack. However, it is difficult to access the training dataset of the target black-box model in reality. Therefore, whether the attributes of a target black-box model could be still revealed in this case is doubtful. In this paper, we investigate a new problem of black-box reverse engineering, without requiring the availability of the target model's training dataset. We put forward a general and principled framework DREAM, by casting this problem as out-of-distribution (OOD) generalization. In this way, we can learn a domain-agnostic meta-model to infer the attributes of the target black-box model with unknown training data. This makes our method one of the kinds that can gracefully apply to an arbitrary domain for model attribute reverse engineering with strong generalization ability. Extensive experimental results demonstrate the superiority of our proposed method over the baselines.
- Abstract(参考訳): ディープラーニングモデルは通常、マシンラーニングプラットフォームにデプロイする際のブラックボックスである。
以前の研究では、ターゲットのブラックボックスモデルの属性(例えば、畳み込み層の数)がクエリーのシーケンスを通して露出できることが示されている。
これらの作業は、対象モデルのトレーニングデータセットが事前に知られており、モデル属性攻撃にこのデータセットを活用することを前提としています。
しかし、実際にはターゲットのブラックボックスモデルのトレーニングデータセットにアクセスすることは困難である。
したがって、対象のブラックボックスモデルの属性がまだ明らかになるかどうかは疑わしい。
本稿では,対象モデルのトレーニングデータセットの可用性を必要とせず,ブラックボックスリバースエンジニアリングの新たな課題について検討する。
我々は、この問題をアウト・オブ・ディストリビューション(OOD)の一般化とみなして、汎用的で原則化されたフレームワークであるDREAMを提唱した。
このようにして、対象のブラックボックスモデルの属性を未知のトレーニングデータで推測するために、ドメインに依存しないメタモデルを学ぶことができる。
これにより,本手法は,強力な一般化能力を持つモデル属性リバースエンジニアリングにおいて,任意の領域に優雅に適用できる種類の1つである。
その結果,提案手法がベースラインよりも優れていることが示された。
関連論文リスト
- Cross-Domain Transfer Learning with CoRTe: Consistent and Reliable
Transfer from Black-Box to Lightweight Segmentation Model [25.3403116022412]
CoRTeは、ブラックボックスソースモデルから信頼できる知識を抽出する擬似ラベリング関数である。
我々は,2つの合成から現実の環境でCoRTeをベンチマークし,ブラックボックスモデルを用いて目標データ分布の軽量モデルにおける知識を伝達する際,顕著な結果を示した。
論文 参考訳(メタデータ) (2024-02-20T16:35:14Z) - DREAM: Domain-free Reverse Engineering Attributes of Black-box Model [51.37041886352823]
ブラックボックス対象モデルの属性をドメインに依存しないリバースエンジニアリングの新しい問題を提案する。
対象のブラックボックスモデルの属性を未知のトレーニングデータで推測するために,ドメインに依存しないモデルを学ぶ。
論文 参考訳(メタデータ) (2023-07-20T16:25:58Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - How to Robustify Black-Box ML Models? A Zeroth-Order Optimization
Perspective [74.47093382436823]
入力クエリと出力フィードバックだけでブラックボックスモデルを堅牢化する方法?
我々は,ブラックボックスモデルに適用可能な防御操作の一般的な概念を提案し,それを復号化スムーシング(DS)のレンズを通して設計する。
我々は,ZO-AE-DSが既存のベースラインよりも精度,堅牢性,クエリの複雑さを向上できることを実証的に示す。
論文 参考訳(メタデータ) (2022-03-27T03:23:32Z) - Label-Only Model Inversion Attacks via Boundary Repulsion [12.374249336222906]
対象モデルの予測ラベルのみを用いて,プライベートトレーニングデータを逆転するアルゴリズムを提案する。
顔認識の例を用いて、BREP-MIで再構成した画像は、プライベートトレーニングデータのセマンティクスを再現することに成功した。
論文 参考訳(メタデータ) (2022-03-03T18:57:57Z) - Design of Dynamic Experiments for Black-Box Model Discrimination [72.2414939419588]
選択したいような動的モデル判別の設定を考えてみましょう。 (i) 最高のメカニスティックな時間変化モデルと (ii) 最高のモデルパラメータ推定値です。
勾配情報にアクセス可能な競合する力学モデルに対しては、既存の手法を拡張し、より広い範囲の問題の不確実性を組み込む。
これらのブラックボックスモデルをガウス過程サロゲートモデルに置き換えることで、モデル識別設定を拡張して、競合するブラックボックスモデルをさらに取り入れる。
論文 参考訳(メタデータ) (2021-02-07T11:34:39Z) - Black-Box Ripper: Copying black-box models using generative evolutionary
algorithms [29.243901669124515]
ブラックボックスニューラルモデルの機能を複製する作業について検討する。
ブラックボックスモデルによるバックプロパゲーションは不可能であると仮定する。
ブラックボックス(教師)モデルを学生モデルに蒸留できる教師学生フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-21T17:25:23Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。