論文の概要: How Real Is Real? A Human Evaluation Framework for Unrestricted Adversarial Examples
- arxiv url: http://arxiv.org/abs/2404.12653v1
- Date: Fri, 19 Apr 2024 06:42:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-22 16:05:28.708282
- Title: How Real Is Real? A Human Evaluation Framework for Unrestricted Adversarial Examples
- Title(参考訳): 現実とは何か? 制限のない敵の例を人間で評価するフレームワーク
- Authors: Dren Fazlija, Arkadij Orlov, Johanna Schrader, Monty-Maximilian Zühlke, Michael Rohs, Daniel Kudenko,
- Abstract要約: 敵の例は、自動運転車のようなAIベースのシステムの安全性を脅かす。
画像領域では、悪質に摂動したデータポイントを表現し、人間に相応しいように見える。
本研究では,制限のない画像ベース攻撃に対する評価フレームワークであるSCOOTERを提案する。
- 参考スコア(独自算出の注目度): 8.483679748399036
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With an ever-increasing reliance on machine learning (ML) models in the real world, adversarial examples threaten the safety of AI-based systems such as autonomous vehicles. In the image domain, they represent maliciously perturbed data points that look benign to humans (i.e., the image modification is not noticeable) but greatly mislead state-of-the-art ML models. Previously, researchers ensured the imperceptibility of their altered data points by restricting perturbations via $\ell_p$ norms. However, recent publications claim that creating natural-looking adversarial examples without such restrictions is also possible. With much more freedom to instill malicious information into data, these unrestricted adversarial examples can potentially overcome traditional defense strategies as they are not constrained by the limitations or patterns these defenses typically recognize and mitigate. This allows attackers to operate outside of expected threat models. However, surveying existing image-based methods, we noticed a need for more human evaluations of the proposed image modifications. Based on existing human-assessment frameworks for image generation quality, we propose SCOOTER - an evaluation framework for unrestricted image-based attacks. It provides researchers with guidelines for conducting statistically significant human experiments, standardized questions, and a ready-to-use implementation. We propose a framework that allows researchers to analyze how imperceptible their unrestricted attacks truly are.
- Abstract(参考訳): 現実世界では機械学習(ML)モデルへの依存がますます高まっているため、敵の例は自動運転車のようなAIベースのシステムの安全性を脅かしている。
画像領域では、悪質に摂動したデータポイントを表現し、人間に相応しい(つまり、画像修正は目立たない)が、最先端のMLモデルを大きく誤解させる。
これまで、研究者は$\ell_p$ノルムによる摂動を制限することで、変更したデータポイントの認識不能を保証していた。
しかし、近年の出版物では、このような制約を伴わない自然な敵の例を作ることもできると主張している。
悪意のある情報をデータに注入する自由がより多くあるため、このような非制限の敵の例は、従来の防衛戦略を克服する可能性がある。
これにより、攻撃者は予想される脅威モデル外で操作できる。
しかし,既存の画像ベース手法を調査した結果,提案手法の人為的評価の必要性が指摘された。
画像生成品質のための既存のヒューマンアセスメントフレームワークに基づいて、制限なし画像ベース攻撃の評価フレームワークであるSCOOTERを提案する。
統計的に重要な人間の実験、標準化された質問、そして使える実装を行うためのガイドラインを研究者に提供する。
本研究では,研究者が非制限攻撃が真に受容できないかを分析するためのフレームワークを提案する。
関連論文リスト
- Injecting Bias in Text-To-Image Models via Composite-Trigger Backdoors [16.495996266157274]
大規模テキスト条件画像生成モデルは、テキストプロンプトから高品質でリアルな画像を生成することができる。
本稿では、少数の悪意のあるデータサンプルでそのようなモデルをバックドアする敵によるバイアス注入の脅威の可能性を示す。
本稿では,このような攻撃に対して複合(複数単語)トリガーを用いた毒素試料の効率的な生成を可能にする新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-06-21T14:53:19Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Privacy Assessment on Reconstructed Images: Are Existing Evaluation
Metrics Faithful to Human Perception? [86.58989831070426]
本研究では,手作りのメトリクスの忠実さを,再構成画像からの人間のプライバシー情報の認識に適用する。
本稿では,SemSimと呼ばれる学習に基づく尺度を提案し,オリジナル画像と再構成画像のセマンティック類似性を評価する。
論文 参考訳(メタデータ) (2023-09-22T17:58:04Z) - Protect Federated Learning Against Backdoor Attacks via Data-Free
Trigger Generation [25.072791779134]
Federated Learning (FL)は、大規模クライアントが生データを共有せずに、協力的にモデルをトレーニングすることを可能にする。
信頼できないクライアントのデータ監査が欠如しているため、FLは特にバックドアアタックに対する攻撃に対して脆弱である。
バックドア攻撃の2つの特徴に基づく,データフリーなトリガジェネレーションに基づく防衛手法を提案する。
論文 参考訳(メタデータ) (2023-08-22T10:16:12Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - On the Robustness of Quality Measures for GANs [136.18799984346248]
本研究は、インセプションスコア(IS)やFr'echet Inception Distance(FID)のような生成モデルの品質測定の堅牢性を評価する。
このような測度は、加算画素摂動によっても操作可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T06:43:09Z) - Invertible Image Dataset Protection [23.688878249633508]
我々は,従来の分類モデルを騙すために,画像にわずかな変化をもたらす可逆的逆例生成器 (RAEG) を開発した。
RAEGは、従来の方法よりも、敵防衛に対するわずかな歪みでデータを保護することができる。
論文 参考訳(メタデータ) (2021-12-29T06:56:43Z) - Generating Unrestricted Adversarial Examples via Three Parameters [11.325135016306165]
提案された敵対攻撃は、限られたパラメータ数を持つ無制限の敵対的例を生成する。
MNISTとSVHNデータセットの人間による評価で平均的な成功率は93.5%である。
また、モデル精度を6つのデータセットで平均73%削減します。
論文 参考訳(メタデータ) (2021-03-13T07:20:14Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Practical Fast Gradient Sign Attack against Mammographic Image
Classifier [0.0]
本稿の背後にあるモチベーションは、この問題を強調し、認識を高めたいということです。
我々はマンモグラフィー画像を用いてモデルを訓練し、精度でモデル性能を評価する。
次に、構造類似度指数(SSIM)を用いて、クリーン画像と逆画像の類似性を分析する。
論文 参考訳(メタデータ) (2020-01-27T07:37:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。