論文の概要: OTI: A Model-free and Visually Interpretable Measure of Image Attackability
- arxiv url: http://arxiv.org/abs/2601.17536v1
- Date: Sat, 24 Jan 2026 17:32:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.910322
- Title: OTI: A Model-free and Visually Interpretable Measure of Image Attackability
- Title(参考訳): OTI: 画像攻撃可能性のモデルフリーかつ視覚的に解釈可能な測定方法
- Authors: Jiaming Liang, Haowei Liu, Chi-Man Pun,
- Abstract要約: 画像攻撃性の評価は、活発な学習、敵の訓練、攻撃強化に重要な応用がある。
既存の手法は乏しく、2つの大きな制限に悩まされている。
画像のセマンティックオブジェクトのテクスチャ強度として画像攻撃可能性を測定する新しいオブジェクトテクスチャインテンシティ(OTI)を提案する。
- 参考スコア(独自算出の注目度): 36.70653927380118
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the tremendous success of neural networks, benign images can be corrupted by adversarial perturbations to deceive these models. Intriguingly, images differ in their attackability. Specifically, given an attack configuration, some images are easily corrupted, whereas others are more resistant. Evaluating image attackability has important applications in active learning, adversarial training, and attack enhancement. This prompts a growing interest in developing attackability measures. However, existing methods are scarce and suffer from two major limitations: (1) They rely on a model proxy to provide prior knowledge (e.g., gradients or minimal perturbation) to extract model-dependent image features. Unfortunately, in practice, many task-specific models are not readily accessible. (2) Extracted features characterizing image attackability lack visual interpretability, obscuring their direct relationship with the images. To address these, we propose a novel Object Texture Intensity (OTI), a model-free and visually interpretable measure of image attackability, which measures image attackability as the texture intensity of the image's semantic object. Theoretically, we describe the principles of OTI from the perspectives of decision boundaries as well as the mid- and high-frequency characteristics of adversarial perturbations. Comprehensive experiments demonstrate that OTI is effective and computationally efficient. In addition, our OTI provides the adversarial machine learning community with a visual understanding of attackability.
- Abstract(参考訳): ニューラルネットワークの驚異的な成功にもかかわらず、良心的なイメージは、これらのモデルを欺く敵の摂動によって損なわれる可能性がある。
興味深いことに、画像は攻撃性が異なる。
具体的には、攻撃構成を考えると、一部の画像は容易に破損するが、他の画像はより耐性がある。
画像攻撃性の評価は、活発な学習、敵の訓練、攻撃強化に重要な応用がある。
これにより、攻撃性対策の開発への関心が高まっている。
しかし、既存の手法には2つの大きな制限がある。(1)モデルに依存した画像の特徴を抽出するために、事前の知識(例えば、勾配や摂動の最小化)を提供するためのモデルプロキシに依存する。
残念ながら、実際には多くのタスク固有のモデルはアクセスできない。
2) 画像の攻撃性を特徴付ける抽出特徴は, 視覚的解釈性に欠け, 画像との直接的関係を無視する。
そこで本研究では,画像のテクスチャ強度として画像攻撃性を測定する,モデルフリーで視覚的に解釈可能な画像攻撃性尺度であるObject Texture Intensity (OTI)を提案する。
理論的には、OTIの原理は、決定境界、および対向摂動の中・高周波特性の観点から記述する。
総合的な実験により、OTIは効率的で計算的に効率的であることが示された。
さらに、OTIは敵の機械学習コミュニティに攻撃可能性の視覚的理解を提供する。
関連論文リスト
- C-LEAD: Contrastive Learning for Enhanced Adversarial Defense [21.31610891219127]
ディープニューラルネットワーク(DNN)は、画像分類、セグメンテーション、オブジェクト検出などのコンピュータビジョンタスクにおいて顕著な成功を収めている。
敵の攻撃に対して脆弱であり、入力画像に小さな摂動を伴う誤った予測を引き起こす可能性がある。
本稿では,対人防御のためのコントラスト学習を利用した新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-10-31T07:32:55Z) - Natural Language Induced Adversarial Images [14.415478695871604]
本稿では,自然言語による逆画像攻撃手法を提案する。
中心となる考え方は、入力プロンプトが与えられた逆画像を生成するために、テキスト・ツー・イメージモデルを活用することである。
実験の結果,"foggy","humid","stretching"などの高周波意味情報が誤りを生じやすいことがわかった。
論文 参考訳(メタデータ) (2024-10-11T08:36:07Z) - Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - CARNet: Collaborative Adversarial Resilience for Robust Underwater Image Enhancement and Perception [16.135354859458758]
我々は,CARNetと呼ばれる協調対向レジリエンスネットワークを導入し,水中画像の強調とそれに続く検出を行う。
本研究ではまず,水中画像から攻撃を分離する強力な知覚能力を持つ可逆ネットワークを導入する。
また,異なるタイプの攻撃に対するネットワークの堅牢性を高めるために,二段階攻撃最適化手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Content-based Unrestricted Adversarial Attack [53.181920529225906]
本稿では,コンテンツベース非制限攻撃という新たな非制限攻撃フレームワークを提案する。
自然像を表す低次元多様体を利用することで、像を多様体上に写像し、その逆方向に沿って最適化する。
論文 参考訳(メタデータ) (2023-05-18T02:57:43Z) - Deep Bayesian Image Set Classification: A Defence Approach against
Adversarial Attacks [32.48820298978333]
ディープニューラルネットワーク(DNN)は、敵にほぼ自信を持って騙される可能性がある。
実際には、敵対的な例として知られる、注意深く摂動された画像に対するディープラーニングシステムの脆弱性は、物理世界のアプリケーションに深刻なセキュリティ上の脅威をもたらす。
本稿では,幅広い敵攻撃に対する防御フレームワークとして,頑健なベイズ画像集合分類を提案する。
論文 参考訳(メタデータ) (2021-08-23T14:52:44Z) - Deep Image Destruction: A Comprehensive Study on Vulnerability of Deep
Image-to-Image Models against Adversarial Attacks [104.8737334237993]
本稿では,敵対的攻撃に対する深部画像対画像モデルの脆弱性に関する包括的調査を行う。
一般的な5つの画像処理タスクでは、さまざまな観点から16の深いモデルが分析される。
画像分類タスクとは異なり、画像間タスクの性能劣化は様々な要因によって大きく異なることが示される。
論文 参考訳(メタデータ) (2021-04-30T14:20:33Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。