論文の概要: Task-Agnostic Attacks Against Vision Foundation Models
- arxiv url: http://arxiv.org/abs/2503.03842v1
- Date: Wed, 05 Mar 2025 19:15:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 16:01:56.898756
- Title: Task-Agnostic Attacks Against Vision Foundation Models
- Title(参考訳): ビジョンファウンデーションモデルに対するタスク非依存攻撃
- Authors: Brian Pulfer, Yury Belousov, Vitaliy Kinakh, Teddy Furon, Slava Voloshynovskiy,
- Abstract要約: 機械学習の実践者が利用可能なトレーニング済みのビジョン基礎モデルを採用するのが、標準のプラクティスになっている。
このような基盤モデルに対する攻撃の研究と、複数の下流タスクに対するその影響は、いまだに明らかにされていない。
本研究は,基本モデルを用いて得られた特徴表現を極大に破壊することにより,タスク非依存の敵例を定式化する汎用フレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.487589700031661
- License:
- Abstract: The study of security in machine learning mainly focuses on downstream task-specific attacks, where the adversarial example is obtained by optimizing a loss function specific to the downstream task. At the same time, it has become standard practice for machine learning practitioners to adopt publicly available pre-trained vision foundation models, effectively sharing a common backbone architecture across a multitude of applications such as classification, segmentation, depth estimation, retrieval, question-answering and more. The study of attacks on such foundation models and their impact to multiple downstream tasks remains vastly unexplored. This work proposes a general framework that forges task-agnostic adversarial examples by maximally disrupting the feature representation obtained with foundation models. We extensively evaluate the security of the feature representations obtained by popular vision foundation models by measuring the impact of this attack on multiple downstream tasks and its transferability between models.
- Abstract(参考訳): 機械学習におけるセキュリティの研究は、主にダウンストリームタスク固有の攻撃に焦点を当て、ダウンストリームタスク固有の損失関数を最適化して敵の例を得る。
同時に、機械学習の実践者が利用可能なトレーニング済みのビジョン基盤モデルを採用するのが一般的となり、分類、セグメンテーション、深さ推定、検索、質問応答など、さまざまなアプリケーションで共通のバックボーンアーキテクチャを効果的に共有する。
このような基盤モデルに対する攻撃の研究と、複数の下流タスクへの影響は、いまだに明らかにされていない。
本研究は,基本モデルを用いて得られた特徴表現を極大に破壊することにより,タスク非依存の敵例を定式化する汎用フレームワークを提案する。
我々は、この攻撃が複数の下流タスクに与える影響とモデル間の伝達可能性を測定することにより、一般的な視覚基盤モデルによって得られた特徴表現の安全性を広範囲に評価する。
関連論文リスト
- Causality can systematically address the monsters under the bench(marks) [64.36592889550431]
ベンチマークはさまざまなバイアス、アーティファクト、リークに悩まされている。
モデルは、調査の不十分な障害モードのため、信頼できない振る舞いをする可能性がある。
因果関係はこれらの課題を体系的に解決するための 理想的な枠組みを提供します
論文 参考訳(メタデータ) (2025-02-07T17:01:37Z) - On the Lack of Robustness of Binary Function Similarity Systems [13.842698930725625]
我々は、最先端の機械学習モデルの敵攻撃に対するレジリエンスを評価する。
我々は、この攻撃が全てのモデルの妥協に成功し、問題設定に応じて57.06%と95.81%の平均的な攻撃成功率を達成することを実証した。
論文 参考訳(メタデータ) (2024-12-05T13:54:53Z) - Zero-Shot Object-Centric Representation Learning [72.43369950684057]
ゼロショット一般化のレンズによる現在の対象中心法について検討する。
8つの異なる合成および実世界のデータセットからなるベンチマークを導入する。
多様な実世界の画像のトレーニングにより、見えないシナリオへの転送性が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-17T10:37:07Z) - Introducing Foundation Models as Surrogate Models: Advancing Towards
More Practical Adversarial Attacks [15.882687207499373]
箱なしの敵攻撃は、AIシステムにとってより実用的で難しいものになりつつある。
本稿では,サロゲートモデルとして基礎モデルを導入することにより,逆攻撃を下流タスクとして再放送する。
論文 参考訳(メタデータ) (2023-07-13T08:10:48Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - On the Robustness of Deep Clustering Models: Adversarial Attacks and
Defenses [14.951655356042947]
クラスタリングモデルは、多数のアプリケーションパイプラインで使用される教師なしの機械学習メソッドのクラスを構成する。
本稿では,GAN(Generative Adversarial Networks)を用いたブラックボックス攻撃を提案する。
我々は、複数の最先端のディープクラスタリングモデルと実世界のデータセットに対する攻撃を分析し、それが非常に成功したことを発見した。
論文 参考訳(メタデータ) (2022-10-04T22:32:02Z) - Benchmarking the Robustness of Instance Segmentation Models [3.1287804585804073]
本稿では,実世界の画像の破損や領域外画像の収集に関して,インスタンス分割モデルの包括的評価を行う。
領域外画像評価は、実世界のアプリケーションにおいて重要な側面であるモデルの一般化能力を示している。
具体的には、最先端のネットワークアーキテクチャ、ネットワークバックボーン、正規化レイヤ、スクラッチからトレーニングされたモデル、ImageNet事前訓練ネットワークが含まれる。
論文 参考訳(メタデータ) (2021-09-02T17:50:07Z) - Deep Image Destruction: A Comprehensive Study on Vulnerability of Deep
Image-to-Image Models against Adversarial Attacks [104.8737334237993]
本稿では,敵対的攻撃に対する深部画像対画像モデルの脆弱性に関する包括的調査を行う。
一般的な5つの画像処理タスクでは、さまざまな観点から16の深いモデルが分析される。
画像分類タスクとは異なり、画像間タスクの性能劣化は様々な要因によって大きく異なることが示される。
論文 参考訳(メタデータ) (2021-04-30T14:20:33Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。