論文の概要: Robustness as Architecture: Designing IQA Models to Withstand Adversarial Perturbations
- arxiv url: http://arxiv.org/abs/2506.04951v1
- Date: Thu, 05 Jun 2025 12:24:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.693789
- Title: Robustness as Architecture: Designing IQA Models to Withstand Adversarial Perturbations
- Title(参考訳): アーキテクチャとしてのロバスト性: 対向的摂動に耐えるためにIQAモデルを設計する
- Authors: Igor Meleshin, Anna Chistyakova, Anastasia Antsiferova, Dmitriy Vatolin,
- Abstract要約: 画像品質評価(IQA)モデルは、実世界のシステムで画像品質を評価するためにますます頼りになっている。
しかし、彼らの採用は根本的なリスクをもたらします。
我々は、アーキテクチャの先行として堅牢性という挑発的な考えを提案する。
- 参考スコア(独自算出の注目度): 2.160634273503242
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image Quality Assessment (IQA) models are increasingly relied upon to evaluate image quality in real-world systems -- from compression and enhancement to generation and streaming. Yet their adoption brings a fundamental risk: these models are inherently unstable. Adversarial manipulations can easily fool them, inflating scores and undermining trust. Traditionally, such vulnerabilities are addressed through data-driven defenses -- adversarial retraining, regularization, or input purification. But what if this is the wrong lens? What if robustness in perceptual models is not something to learn but something to design? In this work, we propose a provocative idea: robustness as an architectural prior. Rather than training models to resist perturbations, we reshape their internal structure to suppress sensitivity from the ground up. We achieve this by enforcing orthogonal information flow, constraining the network to norm-preserving operations -- and further stabilizing the system through pruning and fine-tuning. The result is a robust IQA architecture that withstands adversarial attacks without requiring adversarial training or significant changes to the original model. This approach suggests a shift in perspective: from optimizing robustness through data to engineering it through design.
- Abstract(参考訳): 画像品質評価(IQA)モデルは、圧縮やエンハンスメントから生成、ストリーミングに至るまで、現実のシステムの画質を評価するためにますます頼りになっている。
しかし、それらのモデルの採用は根本的なリスクをもたらします。
敵の操作は簡単にそれらを騙し、スコアを膨らませ、信頼を損なう。
従来、このような脆弱性は、データ駆動型防御 -- 敵の再訓練、正規化、入力の浄化 -- を通じて対処される。
しかし、もしこれが間違ったレンズだったらどうだろう?
知覚モデルにおけるロバスト性が学習するものではなく設計する何かである場合はどうでしょう?
本稿では,アーキテクチャの先行として頑健性という挑発的な考え方を提案する。
摂動に抵抗するモデルをトレーニングするのではなく、内部構造を再構築し、地上からの感度を抑える。
我々は、直交情報の流れを強制し、ネットワークをノルム保存操作に制限し、さらにプルーニングと微調整によってシステムを安定化することで、これを実現する。
その結果、敵の攻撃に耐える堅牢なIQAアーキテクチャが、敵の訓練を必要とせず、元のモデルに大きな変更を加えることなく実現された。
このアプローチは、データによるロバストネスの最適化から、設計によるエンジニアリングに至るまで、視点の転換を示唆している。
関連論文リスト
- Enhancing Variational Autoencoders with Smooth Robust Latent Encoding [54.74721202894622]
変分オートエンコーダ(VAE)は拡散に基づく生成モデルをスケールアップする上で重要な役割を果たしている。
Smooth Robust Latent VAEは、世代品質とロバスト性の両方を向上する、新しい対向トレーニングフレームワークである。
実験により、SRL-VAEは、Nightshade攻撃や画像編集攻撃に対して、画像再構成とテキスト誘導画像編集において、生成品質とロバスト性の両方を改善することが示された。
論文 参考訳(メタデータ) (2025-04-24T03:17:57Z) - Boosting Alignment for Post-Unlearning Text-to-Image Generative Models [55.82190434534429]
大規模な生成モデルは、大量のデータによって推進される印象的な画像生成能力を示している。
これはしばしば必然的に有害なコンテンツや不適切なコンテンツを生み出し、著作権の懸念を引き起こす。
学習しない反復ごとに最適なモデル更新を求めるフレームワークを提案し、両方の目的に対して単調な改善を確実にする。
論文 参考訳(メタデータ) (2024-12-09T21:36:10Z) - Improving the Robustness of Object Detection and Classification AI models against Adversarial Patch Attacks [2.963101656293054]
我々は攻撃手法を解析し、堅牢な防御手法を提案する。
我々は,物体形状,テクスチャ,位置を利用する逆パッチ攻撃を用いて,モデル信頼度を20%以上下げることに成功した。
敵攻撃にも拘わらず,本手法はモデルレジリエンスを著しく向上させ,高精度かつ信頼性の高いローカライゼーションを実現している。
論文 参考訳(メタデータ) (2024-03-04T13:32:48Z) - Robustness-Congruent Adversarial Training for Secure Machine Learning Model Updates [13.247291916609118]
新しく更新されたモデルが、前のモデルが犯していないミスを犯す可能性があることを示す。
パフォーマンスのレグレッションとしてユーザによって経験されるネガティブなフリップ。
特に、その敵の堅牢性を改善するためにモデルを更新するとき、以前はいくつかの入力に対する非効率な敵攻撃が成功しうる。
本稿では,この課題に対処するために,ロバストネス・コングロレント・逆行訓練という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-27T10:37:13Z) - A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - SafeAMC: Adversarial training for robust modulation recognition models [53.391095789289736]
通信システムには、Deep Neural Networks(DNN)モデルに依存する変調認識など、多くのタスクがある。
これらのモデルは、逆方向の摂動、すなわち、誤分類を引き起こすために作られた知覚不能な付加音に影響を受けやすいことが示されている。
本稿では,自動変調認識モデルのロバスト性を高めるために,逆方向の摂動を伴うモデルを微調整する逆方向トレーニングを提案する。
論文 参考訳(メタデータ) (2021-05-28T11:29:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。