論文の概要: Simple Transparent Adversarial Examples
- arxiv url: http://arxiv.org/abs/2105.09685v1
- Date: Thu, 20 May 2021 11:54:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:49:46.632922
- Title: Simple Transparent Adversarial Examples
- Title(参考訳): 単純透明逆数例
- Authors: Jaydeep Borkar, Pin-Yu Chen
- Abstract要約: 本研究は,ロバスト性を評価するための簡易な方法として,秘密の埋め込みと透明な敵の例を紹介した。
その結果、ハイリスクなアプリケーションにAPIが使用されるという深刻な脅威が生じる。
- 参考スコア(独自算出の注目度): 65.65977217108659
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been a rise in the use of Machine Learning as a Service (MLaaS)
Vision APIs as they offer multiple services including pre-built models and
algorithms, which otherwise take a huge amount of resources if built from
scratch. As these APIs get deployed for high-stakes applications, it's very
important that they are robust to different manipulations. Recent works have
only focused on typical adversarial attacks when evaluating the robustness of
vision APIs. We propose two new aspects of adversarial image generation methods
and evaluate them on the robustness of Google Cloud Vision API's optical
character recognition service and object detection APIs deployed in real-world
settings such as sightengine.com, picpurify.com, Google Cloud Vision API, and
Microsoft Azure's Computer Vision API. Specifically, we go beyond the
conventional small-noise adversarial attacks and introduce secret embedding and
transparent adversarial examples as a simpler way to evaluate robustness. These
methods are so straightforward that even non-specialists can craft such
attacks. As a result, they pose a serious threat where APIs are used for
high-stakes applications. Our transparent adversarial examples successfully
evade state-of-the art object detections APIs such as Azure Cloud Vision
(attack success rate 52%) and Google Cloud Vision (attack success rate 36%).
90% of the images have a secret embedded text that successfully fools the
vision of time-limited humans but is detected by Google Cloud Vision API's
optical character recognition. Complementing to current research, our results
provide simple but unconventional methods on robustness evaluation.
- Abstract(参考訳): 機械学習・アズ・ア・サービス(MLaaS)ビジョンAPIは、事前に構築されたモデルやアルゴリズムを含む複数のサービスを提供しており、それ以外はスクラッチから構築すると膨大なリソースを消費する。
これらのAPIは高度なアプリケーションにデプロイされるため、異なる操作に対して堅牢であることが非常に重要です。
最近の研究は、ビジョンAPIの堅牢性を評価する際に、典型的な敵攻撃にのみ焦点を当てている。
本稿では,Google Cloud Vision APIの光学的文字認識サービスと, sightengine.com, picpurify.com, Google Cloud Vision API, Microsoft AzureのComputer Vision APIなどの実環境にデプロイされたオブジェクト検出APIの堅牢性について,敵対的画像生成手法の新たな2つの側面を提案する。
具体的には,従来の小雑音対向攻撃を超越し,ロバスト性を評価するための簡易な方法として,秘密の埋め込みと透過的な対向例を導入する。
これらの手法は非常に単純で、専門でない者でさえそのような攻撃を仕掛けることができる。
その結果、ハイリスクなアプリケーションにAPIが使用されるという深刻な脅威が生じる。
透過的な敵の例では、azure cloud vision(攻撃成功率52%)やgoogle cloud vision(攻撃成功率36%)といった最先端のオブジェクト検出apiを回避しています。
画像の90%は秘密の埋め込みテキストで、時間制限された人間のビジョンをうまく騙すが、Google Cloud Vision APIの光学文字認識によって検出される。
最近の研究を補完する形で,ロバスト性評価の手法は単純だが非従来的である。
関連論文リスト
- Effective and Efficient Adversarial Detection for Vision-Language Models via A Single Vector [97.92369017531038]
Diverse hArmful Responses (RADAR) を用いた新しい laRge-scale Adervsarial 画像データセットを構築した。
そこで我々は,視覚言語モデル (VLM) の隠れ状態から抽出した1つのベクトルを利用して,入力中の良質な画像に対して対向画像を検出する,新しいiN時間埋め込み型AdveRSarial Image Detectction (NEARSIDE) 法を開発した。
論文 参考訳(メタデータ) (2024-10-30T10:33:10Z) - A Classification-by-Retrieval Framework for Few-Shot Anomaly Detection to Detect API Injection Attacks [9.693391036125908]
本稿では,2つの主要部品からなる非教師なし数発の異常検出フレームワークを提案する。
まず、FastTextの埋め込みに基づいたAPI専用の汎用言語モデルをトレーニングする。
次に,近似Nearest Neighborサーチを分類・検索手法として用いた。
論文 参考訳(メタデータ) (2024-05-18T10:15:31Z) - BruSLeAttack: A Query-Efficient Score-Based Black-Box Sparse Adversarial Attack [22.408968332454062]
モデルクエリに対するスコアベースの応答を単純に観察することで、スパース対逆サンプルを生成するという、独特であまりよく理解されていない問題について検討する。
この問題に対するBruSLeAttackアルゴリズムを開発した。
私たちの作業は、モデル脆弱性の迅速な評価を促進し、デプロイされたシステムの安全性、セキュリティ、信頼性に対する警戒を高めます。
論文 参考訳(メタデータ) (2024-04-08T08:59:26Z) - REaaS: Enabling Adversarially Robust Downstream Classifiers via Robust
Encoder as a Service [67.0982378001551]
サービスプロバイダがエンコーダを事前トレーニングして、クラウドサービスAPIとしてデプロイする方法を示します。
クライアントはクラウドサービスAPIに問い合わせて、トレーニング/テスト入力のフィーチャーベクタを取得する。
私たちは、クライアントが下流の分類器の堅牢性を証明できるように、クラウドサービスが2つのAPIを提供する必要があることを示しています。
論文 参考訳(メタデータ) (2023-01-07T17:40:11Z) - Vision Transformer with Super Token Sampling [93.70963123497327]
多くの視覚タスクにおいて、視覚変換器は印象的なパフォーマンスを達成した。
浅い層のために局所的な特徴を捉える際に、高い冗長性に悩まされる可能性がある。
スーパートークンは、視覚的コンテンツの意味的に意味のあるテッセルレーションを提供しようとする。
論文 参考訳(メタデータ) (2022-11-21T03:48:13Z) - Evaluating Transfer-based Targeted Adversarial Perturbations against
Real-World Computer Vision Systems based on Human Judgments [2.600494734548762]
コンピュータビジョンシステムは敵の摂動に対して極めて脆弱である。
本稿では,現実的なシナリオにおける移動型対向画像の探索に向けて第一歩を踏み出した。
主なコントリビューションには、Google Cloud Vision API上での攻撃成功に対する、広範な人的判断に基づく評価が含まれています。
論文 参考訳(メタデータ) (2022-06-03T09:17:22Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - Interpreting Cloud Computer Vision Pain-Points: A Mining Study of Stack
Overflow [5.975695375814528]
本研究では,コンピュータビジョンサービスに対する開発者の不満について検討する。
モバイル開発のような成熟した分野とは違って、開発者が問う質問の種類は対照的である。
これらは、そのようなシステムを強化する技術について、浅い理解を示している。
論文 参考訳(メタデータ) (2020-01-28T00:56:51Z) - Transferability of Adversarial Examples to Attack Cloud-based Image
Classifier Service [0.6526824510982799]
本稿では,実世界のクラウドベースの画像分類サービスのセキュリティに関する研究に焦点をあてる。
本稿では,代用モデルに基づく新しい攻撃手法FFL-PGDを提案する。
FFL-PGD攻撃は、異なる分類サービスの中で90%以上の成功率を示す。
論文 参考訳(メタデータ) (2020-01-08T23:03:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。