論文の概要: Robustness of SAM: Segment Anything Under Corruptions and Beyond
- arxiv url: http://arxiv.org/abs/2306.07713v1
- Date: Tue, 13 Jun 2023 12:00:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 14:02:39.717520
- Title: Robustness of SAM: Segment Anything Under Corruptions and Beyond
- Title(参考訳): SAMのロバスト性: 破壊とそれ以上のセグメンテーション
- Authors: Yu Qiao, Chaoning Zhang, Taegoo Kang, Donghun Kim, Shehbaz Tariq,
Chenshuang Zhang, Choong Seon Hong
- Abstract要約: Segment Any Model (SAM) は任意のオブジェクトを切断できると主張している。
この研究は、SAMの汚職以降の堅牢性に関する総合的な実証的研究を提供する。
- 参考スコア(独自算出の注目度): 38.95860061826326
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Segment anything model (SAM), as the name suggests, is claimed to be capable
of cutting out any object. SAM is a vision foundation model which demonstrates
impressive zero-shot transfer performance with the guidance of a prompt.
However, there is currently a lack of comprehensive evaluation of its
robustness performance under various types of corruptions. Prior works show
that SAM is biased towards texture (style) rather than shape, motivated by
which we start by investigating SAM's robustness against style transfer, which
is synthetic corruption. With the effect of corruptions interpreted as a style
change, we further evaluate its robustness on 15 common corruptions with 5
severity levels for each real-world corruption. Beyond the corruptions, we
further evaluate the SAM robustness on local occlusion and adversarial
perturbations. Overall, this work provides a comprehensive empirical study on
the robustness of the SAM under corruptions and beyond.
- Abstract(参考訳): Segment Any Model (SAM) という名前が示すように、任意のオブジェクトを切断することができる。
SAMは、プロンプトの誘導により、印象的なゼロショット転送性能を示すビジョン基礎モデルである。
しかし, 各種の汚職下での強靭性評価には包括的評価が欠如している。
以前の研究では、SAMは形ではなくテクスチャ(スタイル)に偏っていることが示されており、その動機は、SAMのスタイル移動に対する頑健さを調査することにある。
スタイル変更と解釈された汚職の影響により,実世界の汚職ごとに5つの重度レベルを持つ15の共用汚職に対するロバスト性をさらに評価した。
汚職以外では, SAMの局所閉塞と対向摂動に対する堅牢性をさらに評価した。
全体として、この研究はSAMの腐敗以降の堅牢性に関する総合的な実証的研究を提供する。
関連論文リスト
- Towards Million-Scale Adversarial Robustness Evaluation With Stronger Individual Attacks [26.422616504640786]
本稿では,ロジット空間ではなく,確率空間における対角的マージン・アタック(Probability Margin Attack, PMA)を提案する。
我々は、百万スケールのデータセットCC1Mを作成し、それを用いて、敵に訓練されたImageNetモデルの最初の百万スケールの対角ロバスト性評価を行う。
論文 参考訳(メタデータ) (2024-11-20T10:41:23Z) - Towards Evaluating the Robustness of Visual State Space Models [63.14954591606638]
視覚状態空間モデル(VSSM)は視覚知覚タスクにおいて顕著な性能を示した。
しかし、自然と敵対的な摂動の下での頑丈さは依然として重要な懸念事項である。
様々な摂動シナリオ下でのVSSMの頑健さを総合的に評価する。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - SAM Meets UAP: Attacking Segment Anything Model With Universal Adversarial Perturbation [61.732503554088524]
画像認識不能なユニバーサル適応摂動(UAP)を用いてSAM(Segment Anything Model)を攻撃できるかどうかを検討する。
自己教師付きコントラスト学習(CL)に基づくUAP生成手法を実現する新しい摂動中心フレームワークを提案する。
CLを用いたUAP生成手法の有効性を定量的および定性的に検証した。
論文 参考訳(メタデータ) (2023-10-19T02:49:24Z) - SAM Meets Robotic Surgery: An Empirical Study on Generalization,
Robustness and Adaptation [15.995869434429274]
Segment Anything Model (SAM) はセグメンテーションの基本モデルとして機能する。
ロボット外科領域におけるSAMの頑健性とゼロショットの一般化性について検討した。
論文 参考訳(メタデータ) (2023-08-14T14:09:41Z) - On the Robustness of Segment Anything [46.669794757467166]
我々は, SAMの試験時間ロバスト性について, 敵のシナリオと共通の腐敗下で検討することを目的としている。
SAMは、ぼやけた汚職を除いて、様々な汚職に対して顕著な堅牢性を示す。
論文 参考訳(メタデータ) (2023-05-25T16:28:30Z) - Attack-SAM: Towards Attacking Segment Anything Model With Adversarial
Examples [68.5719552703438]
Segment Anything Model (SAM) は、様々なダウンストリームタスクにおける印象的なパフォーマンスのために、最近大きな注目を集めている。
深い視覚モデルは敵の例に弱いと広く認識されており、それはモデルを騙して知覚不能な摂動で間違った予測をする。
この研究は、SAMの攻撃方法に関する総合的な調査を敵対的な例で実施した最初のものである。
論文 参考訳(メタデータ) (2023-05-01T15:08:17Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Regional Adversarial Training for Better Robust Generalization [35.42873777434504]
良性サンプル近傍の摂動点の特性と多様性を考察した,新たな対人訓練フレームワークを提案する。
RATは、標準対人訓練(SAT)を継続的に改善し、より堅牢な一般化を示す。
論文 参考訳(メタデータ) (2021-09-02T02:48:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。