論文の概要: MeaeQ: Mount Model Extraction Attacks with Efficient Queries
- arxiv url: http://arxiv.org/abs/2310.14047v1
- Date: Sat, 21 Oct 2023 16:07:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 02:12:32.926778
- Title: MeaeQ: Mount Model Extraction Attacks with Efficient Queries
- Title(参考訳): MeaeQ: 効率的なクエリによるマウントモデル抽出攻撃
- Authors: Chengwei Dai, Minxuan Lv, Kun Li, Wei Zhou
- Abstract要約: 自然言語処理(NLP)におけるモデル抽出攻撃の研究
これらの問題に対処する単純で効果的な方法であるMeaeQを提案する。
MeaeQは、クエリを少なくしながら、ベースラインよりも犠牲者モデルに高い機能的類似性を実現する。
- 参考スコア(独自算出の注目度): 6.1106195466129485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study model extraction attacks in natural language processing (NLP) where
attackers aim to steal victim models by repeatedly querying the open
Application Programming Interfaces (APIs). Recent works focus on limited-query
budget settings and adopt random sampling or active learning-based sampling
strategies on publicly available, unannotated data sources. However, these
methods often result in selected queries that lack task relevance and data
diversity, leading to limited success in achieving satisfactory results with
low query costs. In this paper, we propose MeaeQ (Model extraction attack with
efficient Queries), a straightforward yet effective method to address these
issues. Specifically, we initially utilize a zero-shot sequence inference
classifier, combined with API service information, to filter task-relevant data
from a public text corpus instead of a problem domain-specific dataset.
Furthermore, we employ a clustering-based data reduction technique to obtain
representative data as queries for the attack. Extensive experiments conducted
on four benchmark datasets demonstrate that MeaeQ achieves higher functional
similarity to the victim model than baselines while requiring fewer queries.
Our code is available at https://github.com/C-W-D/MeaeQ.
- Abstract(参考訳): 自然言語処理(NLP)におけるモデル抽出攻撃について検討し、攻撃者はオープンなアプリケーションプログラミングインタフェース(API)に繰り返し問い合わせることで、被害者モデルを盗もうとする。
最近の研究は、限定的な予算設定に焦点をあて、公開データソースにランダムサンプリングまたはアクティブラーニングベースのサンプリング戦略を採用する。
しかし、これらの手法は、タスクの関連性やデータの多様性に欠ける選択されたクエリをもたらすことが多く、クエリコストの低い満足な結果を達成するには限界がある。
本稿では,これらの問題に対処するための単純かつ効果的な手法であるmeaeq(model extraction attack with efficient query)を提案する。
具体的には、まずゼロショットシーケンス推論分類器とAPIサービス情報を組み合わせて、問題領域固有のデータセットの代わりに、公開テキストコーパスからタスク関連データをフィルタリングする。
さらに,クラスタリングに基づくデータ削減手法を用いて,攻撃のクエリとして代表データを取得する。
4つのベンチマークデータセットで行った広範囲な実験により、meeeqはベースラインよりも被害者モデルと高い機能的類似性を達成でき、クエリは少ない。
私たちのコードはhttps://github.com/c-w-d/meaeqで利用可能です。
関連論文リスト
- One VLM to Keep it Learning: Generation and Balancing for Data-free Continual Visual Question Answering [31.025439143093585]
VLM(Vision-Language Models)は、Webスケールのマルチモーダルデータセットを活用することで、VQA(Visual Question Answering)タスクにおいて大きな可能性を秘めている。
これらのモデルは、新しいタスクに適応する際に破滅的な忘れ物のために、継続的な学習に苦しむことが多い。
本稿では,外部モデルに頼るのではなく,VLMの言語生成能力を活用した最初のデータフリー手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T16:04:59Z) - Training on the Benchmark Is Not All You Need [52.01920740114261]
本稿では,複数選択肢の内容に基づいた簡易かつ効果的なデータ漏洩検出手法を提案する。
本手法は,モデルトレーニングデータや重みを使用せずに,ブラックボックス条件下で動作することができる。
我々は,4つのベンチマークデータセットを用いて,31個の主要なオープンソースLCMのデータ漏洩の程度を評価する。
論文 参考訳(メタデータ) (2024-09-03T11:09:44Z) - Prompt Optimization with EASE? Efficient Ordering-aware Automated Selection of Exemplars [66.823588073584]
大規模言語モデル(LLM)は、現実世界のアプリケーションで印象的な機能を示している。
これらの卓越した作品の品質は、パフォーマンスに大きな影響を与えます。
既存の方法は、先行注文がパフォーマンスに与える影響を適切に説明できない。
論文 参考訳(メタデータ) (2024-05-25T08:23:05Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - Revisiting Sparse Retrieval for Few-shot Entity Linking [33.15662306409253]
本稿では,ELECTRAに基づくキーワード抽出手法を提案する。
抽出器のトレーニングには,参照コンテキストとエンティティ記述との間に重複するトークンをベースとしたトレーニングデータを自動的に生成する遠隔監視手法を提案する。
ZESHELデータセットによる実験結果から,提案手法はすべてのテスト領域において,最先端モデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-10-19T03:51:10Z) - MinPrompt: Graph-based Minimal Prompt Data Augmentation for Few-shot Question Answering [64.6741991162092]
オープンドメイン質問応答のための最小限のデータ拡張フレームワークMinPromptを提案する。
我々は、生テキストをグラフ構造に変換し、異なる事実文間の接続を構築する。
次に、グラフアルゴリズムを適用して、原文のほとんどの情報をカバーするのに必要な最小限の文の集合を識別する。
同定された文サブセットに基づいてQAペアを生成し、選択した文に基づいてモデルをトレーニングし、最終モデルを得る。
論文 参考訳(メタデータ) (2023-10-08T04:44:36Z) - Going beyond research datasets: Novel intent discovery in the industry
setting [60.90117614762879]
本稿では,大規模なeコマースプラットフォームに展開する意図発見パイプラインを改善する手法を提案する。
ドメイン内データに基づく事前学習型言語モデルの利点を示す。
また,クラスタリングタスクの微調整中に,実生活データセットの会話構造(質問と回答)を利用するための最善の方法も考案した。
論文 参考訳(メタデータ) (2023-05-09T14:21:29Z) - Temporal Output Discrepancy for Loss Estimation-based Active Learning [65.93767110342502]
ラベルのないサンプルが高損失を伴っていると信じられている場合に,データアノテーションのオラクルに問い合わせる,新しいディープラーニングアプローチを提案する。
本手法は,画像分類やセマンティックセグメンテーションタスクにおける最先端の能動学習手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-12-20T19:29:37Z) - Combing for Credentials: Active Pattern Extraction from Smart Reply [15.097010165958027]
典型的なSmart Replyパイプラインにおける潜在的な情報漏洩脆弱性について検討する。
我々は、機密データを含むテキストの標準パターンを利用する新しいタイプのアクティブ抽出攻撃を導入する。
本研究では,現実的な設定であっても,学習データに含まれるセンシティブなユーザ情報を抽出することが可能であることを実験的に示す。
論文 参考訳(メタデータ) (2022-07-14T05:03:56Z) - First to Possess His Statistics: Data-Free Model Extraction Attack on
Tabular Data [0.0]
本稿では,実用的なデータフリー環境下でのTEMPESTと呼ばれる新しいモデル抽出攻撃を提案する。
実験により、我々の攻撃は以前の攻撃と同等のパフォーマンスを達成できることが示された。
本稿では,TEMPESTを実世界において医療診断実験により実施する可能性について論じる。
論文 参考訳(メタデータ) (2021-09-30T05:30:12Z) - QActor: On-line Active Learning for Noisy Labeled Stream Data [10.814099534254922]
そこで本研究では,品質モデルによるクリーンなサンプルの選択と,最も情報に富む真のラベルに対する託宣を積極的にクエリするQActorを提案する。
QActorは、データフィルタリングのための品質モデルの利点と、最も情報性の高いデータのクリーニングのためのオラクルクエリを素早く組み合わせます。
QActorの中心的な機能は、各データバッチの学習損失に応じてクエリ制限を動的に調整することである。
論文 参考訳(メタデータ) (2020-01-28T15:13:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。