論文の概要: The race to robustness: exploiting fragile models for urban camouflage
and the imperative for machine learning security
- arxiv url: http://arxiv.org/abs/2306.14609v1
- Date: Mon, 26 Jun 2023 11:32:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 13:57:07.905143
- Title: The race to robustness: exploiting fragile models for urban camouflage
and the imperative for machine learning security
- Title(参考訳): 堅牢性への競争: 都市カモフラージュにおける脆弱なモデルの利用と機械学習のセキュリティへの規範
- Authors: Harriet Farlow, Matthew Garratt, Gavin Mount and Tim Lynar
- Abstract要約: 本稿では,コンピュータビジョンに基づくAML攻撃手法の分散インスタンス化を実現する新しい手法であるDAR(Distributed Adversarial Regions)を提案する。
都市環境におけるオブジェクト検出モデルのコンテキストを考察し,MobileNetV2,NasNetMobile,DenseNet169モデルをベンチマークする。
DARは平均で40.4%の信頼性低下を引き起こすが、画像全体を必要としない利点がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Adversarial Machine Learning (AML) represents the ability to disrupt Machine
Learning (ML) algorithms through a range of methods that broadly exploit the
architecture of deep learning optimisation. This paper presents Distributed
Adversarial Regions (DAR), a novel method that implements distributed
instantiations of computer vision-based AML attack methods that may be used to
disguise objects from image recognition in both white and black box settings.
We consider the context of object detection models used in urban environments,
and benchmark the MobileNetV2, NasNetMobile and DenseNet169 models against a
subset of relevant images from the ImageNet dataset. We evaluate optimal
parameters (size, number and perturbation method), and compare to
state-of-the-art AML techniques that perturb the entire image. We find that
DARs can cause a reduction in confidence of 40.4% on average, but with the
benefit of not requiring the entire image, or the focal object, to be
perturbed. The DAR method is a deliberately simple approach where the intention
is to highlight how an adversary with very little skill could attack models
that may already be productionised, and to emphasise the fragility of
foundational object detection models. We present this as a contribution to the
field of ML security as well as AML. This paper contributes a novel adversarial
method, an original comparison between DARs and other AML methods, and frames
it in a new context - that of urban camouflage and the necessity for ML
security and model robustness.
- Abstract(参考訳): Adversarial Machine Learning (AML)は、ディープラーニング最適化のアーキテクチャを広く活用するさまざまな手法を通じて、機械学習(ML)アルゴリズムをディスラプトする能力を表す。
本稿では,コンピュータビジョンに基づくAML攻撃手法の分散インスタンス化を実現する新しい手法であるDistributed Adversarial Regions (DAR)を提案する。
都市環境におけるオブジェクト検出モデルのコンテキストを考察し,画像Netデータセットからの関連画像のサブセットに対してMobileNetV2,NasNetMobile,DenseNet169モデルをベンチマークする。
最適なパラメータ(サイズ,数,摂動法)を評価し,画像全体を摂動する最先端のAML手法と比較した。
DARは平均で40.4%の信頼性を低下させる可能性があるが、画像全体や焦点対象の摂動を必要としないという利点がある。
darメソッドは意図的にシンプルなアプローチで、スキルの少ない敵が、すでに生産されているかもしれないモデルをどのように攻撃できるかを強調し、基礎となるオブジェクト検出モデルの脆弱さを強調する。
我々は、AMLと同様に、MLセキュリティの分野への貢献としてこれを提示する。
本稿では,dars と他の aml 手法との独自比較法である新しい敵対的手法を提案し,都市カモフラージュと ml のセキュリティとモデルロバスト性の必要性という新しい文脈で構成する。
関連論文リスト
- Breaking the Black-Box: Confidence-Guided Model Inversion Attack for
Distribution Shift [0.46040036610482665]
モデル反転攻撃(MIA)は、ターゲットクラスの特性を反映した合成画像を生成することにより、ターゲット分類器のプライベートトレーニングデータを推論しようとする。
これまでの研究はターゲットモデルへの完全なアクセスに依存してきたが、現実のシナリオでは実用的ではない。
本稿では,CG-MIと呼ばれるtextbfConfidence-textbfGuided textbfModel textbfInversion攻撃法を提案する。
論文 参考訳(メタデータ) (2024-02-28T03:47:17Z) - Sparse and Transferable Universal Singular Vectors Attack [5.498495800909073]
そこで本研究では, よりスムーズなホワイトボックス対逆攻撃を提案する。
我々のアプローチは、ジャコビアン行列の隠れた層の$(p,q)$-singularベクトルにスパーシティを提供するトラルキャットパワーに基づいている。
本研究は,攻撃をスパースする最先端モデルの脆弱性を実証し,堅牢な機械学習システムの開発の重要性を強調した。
論文 参考訳(メタデータ) (2024-01-25T09:21:29Z) - Machine Vision Therapy: Multimodal Large Language Models Can Enhance
Visual Robustness via Denoising In-Context Learning [71.0588455785955]
本稿では,視覚モデルからノイズ予測を補正するマシンビジョンセラピーを提案する。
復調ラベルを微調整することにより、教師なしの方法で学習モデルの性能を高めることができる。
論文 参考訳(メタデータ) (2023-12-05T07:29:14Z) - UMat: Uncertainty-Aware Single Image High Resolution Material Capture [2.416160525187799]
本研究では, 物体の単一拡散像から正規性, 特異性, 粗さを復元する学習手法を提案する。
本手法は材料デジタル化における不確実性をモデル化する問題に最初に対処する手法である。
論文 参考訳(メタデータ) (2023-05-25T17:59:04Z) - PixMIM: Rethinking Pixel Reconstruction in Masked Image Modeling [83.67628239775878]
Masked Image Modeling (MIM) は Masked Autoencoders (MAE) と BEiT の出現によって有望な進歩を遂げた。
本稿では,画素再構成の観点からMIMの基本解析を行う。
我々は,2つの戦略を包含する極めて単純で効果的な方法,weelmethodを提案する。
論文 参考訳(メタデータ) (2023-03-04T13:38:51Z) - Query Efficient Decision Based Sparse Attacks Against Black-Box Deep
Learning Models [9.93052896330371]
本研究では,進化型アルゴリズムであるSparseEvoを開発し,畳み込み型深層ニューラルネットワークと視覚変換器の両方に対して評価する。
SparseEvoは、未ターゲットとターゲットの両方の攻撃に対して、最先端のスパース攻撃よりもはるかに少ないモデルクエリを必要とする。
重要なことは、クエリ効率のよいSparseEvoと意思決定ベースの攻撃は、一般的に、デプロイされたシステムの安全性に関する新しい疑問を提起する。
論文 参考訳(メタデータ) (2022-01-31T21:10:47Z) - MAML is a Noisy Contrastive Learner [72.04430033118426]
モデルに依存しないメタラーニング(MAML)は、今日では最も人気があり広く採用されているメタラーニングアルゴリズムの1つである。
我々は、MAMLの動作メカニズムに対する新たな視点を提供し、以下に示すように、MAMLは、教師付きコントラスト目的関数を用いたメタラーナーに類似している。
このような干渉を軽減するため, 単純だが効果的な手法であるゼロ化手法を提案する。
論文 参考訳(メタデータ) (2021-06-29T12:52:26Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Learning to Generate Image Source-Agnostic Universal Adversarial
Perturbations [65.66102345372758]
普遍対向摂動(UAP)は複数の画像を同時に攻撃することができる。
既存のUAPジェネレータは、画像が異なる画像ソースから描画される際には未開発である。
数発の学習をカスタマイズした例として,UAP生成の新たな視点を考察する。
論文 参考訳(メタデータ) (2020-09-29T01:23:20Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。