論文の概要: Perceptual Attacks of No-Reference Image Quality Models with
Human-in-the-Loop
- arxiv url: http://arxiv.org/abs/2210.00933v1
- Date: Mon, 3 Oct 2022 13:47:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 17:02:24.301633
- Title: Perceptual Attacks of No-Reference Image Quality Models with
Human-in-the-Loop
- Title(参考訳): 人間による非参照画像品質モデルの知覚的攻撃
- Authors: Weixia Zhang and Dingquan Li and Xiongkuo Min and Guangtao Zhai and
Guodong Guo and Xiaokang Yang and Kede Ma
- Abstract要約: NR-IQAモデルの知覚的堅牢性を調べるための最初の試みの1つを行う。
我々は,4つの完全参照IQAモデルの下で,知識駆動のNR-IQA法とデータ駆動のNR-IQA法を検証した。
4つのNR-IQAモデルは全て、提案した知覚的攻撃に対して脆弱であることがわかった。
- 参考スコア(独自算出の注目度): 113.75573175709573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: No-reference image quality assessment (NR-IQA) aims to quantify how humans
perceive visual distortions of digital images without access to their
undistorted references. NR-IQA models are extensively studied in computational
vision, and are widely used for performance evaluation and perceptual
optimization of man-made vision systems. Here we make one of the first attempts
to examine the perceptual robustness of NR-IQA models. Under a Lagrangian
formulation, we identify insightful connections of the proposed perceptual
attack to previous beautiful ideas in computer vision and machine learning. We
test one knowledge-driven and three data-driven NR-IQA methods under four
full-reference IQA models (as approximations to human perception of
just-noticeable differences). Through carefully designed psychophysical
experiments, we find that all four NR-IQA models are vulnerable to the proposed
perceptual attack. More interestingly, we observe that the generated
counterexamples are not transferable, manifesting themselves as distinct design
flows of respective NR-IQA methods.
- Abstract(参考訳): 非参照画像品質評価(NR-IQA)は、人間が歪まない参照にアクセスせずにデジタル画像の視覚的歪みをどのように知覚するかを定量化することを目的としている。
NR-IQAモデルはコンピュータビジョンにおいて広く研究されており、人造視覚システムの性能評価や知覚的最適化に広く利用されている。
ここでは、NR-IQAモデルの知覚的堅牢性を調べるための最初の試みの1つである。
ラグランジュの定式化の下では、コンピュータビジョンと機械学習の以前の美しいアイデアに対する知覚的攻撃の洞察に富む関係を明らかにする。
我々は,4つの完全参照IQAモデルの下で,1つの知識駆動と3つのデータ駆動NR-IQA法をテストする。
慎重に設計された心理物理学実験により、4つのNR-IQAモデルは全て、提案された知覚的攻撃に対して脆弱であることが判明した。
さらに興味深いことに、生成した反例は転送不可能であり、それぞれのNR-IQA法の異なる設計フローとして表される。
関連論文リスト
- Sliced Maximal Information Coefficient: A Training-Free Approach for Image Quality Assessment Enhancement [12.628718661568048]
我々は,人間の品質評価の過程を模倣する,一般化された視覚的注意度推定戦略を検討することを目的とする。
特に、劣化画像と参照画像の統計的依存性を測定することによって、人間の注意生成をモデル化する。
既存のIQAモデルのアテンションモジュールを組み込んだ場合、既存のIQAモデルの性能を一貫して改善できることを示す実験結果が得られた。
論文 参考訳(メタデータ) (2024-08-19T11:55:32Z) - Understanding and Evaluating Human Preferences for AI Generated Images with Instruction Tuning [58.41087653543607]
我々はまず,AIGCIQA2023+と呼ばれるAIGIのための画像品質評価(IQA)データベースを構築した。
本稿では,AIGIに対する人間の嗜好を評価するためのMINT-IQAモデルを提案する。
論文 参考訳(メタデータ) (2024-05-12T17:45:11Z) - Comparison of No-Reference Image Quality Models via MAP Estimation in
Diffusion Latents [99.19391983670569]
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
異なるNR-IQAモデルは異なる拡張イメージを誘導し、最終的には精神物理学的なテストを受ける。
これにより, NR-IQAモデルの比較を行う新たな計算手法が提案される。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - Black-box Adversarial Attacks Against Image Quality Assessment Models [16.11900427447442]
No-Reference Image Quality Assessment (NR-IQA)の目標は、画像の知覚的品質を主観的評価に従って予測することである。
本稿では,NR-IQAモデルに対するブラックボックス攻撃を初めて検討する。
論文 参考訳(メタデータ) (2024-02-27T14:16:39Z) - Exploring Vulnerabilities of No-Reference Image Quality Assessment Models: A Query-Based Black-Box Method [15.266845355276317]
No-Reference Image Quality Assessmentは、人間の知覚と一致した画像品質スコアを予測することを目的としている。
NR-IQAの現在の攻撃方法はNR-IQAモデルの勾配に大きく依存している。
NR-IQA法に対するクエリベースのブラックボックス攻撃の先駆的手法を提案する。
論文 参考訳(メタデータ) (2024-01-10T15:30:19Z) - Enhancing image quality prediction with self-supervised visual masking [20.190853812320395]
フルリファレンス画像品質指標(FR-IQMs)は、参照と歪んだ画像の対の視覚的差異を測定することを目的としている。
本稿では,視認性に基づいて視覚的誤りをペナルティ化する方法で,参照や歪んだ画像を変調する視覚マスキングモデルを提案する。
提案手法は,視覚的,定量的に予測されるFR-IQM測定値とより一致した拡張FR-IQM測定値である。
論文 参考訳(メタデータ) (2023-05-31T13:48:51Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z) - MetaIQA: Deep Meta-learning for No-Reference Image Quality Assessment [73.55944459902041]
本稿では,深層メタラーニングに基づく非参照IQA尺度を提案する。
まず、様々な歪みに対してNR-IQAタスクを収集する。
次にメタラーニングを用いて、多彩な歪みによって共有される事前知識を学習する。
大規模な実験により、提案された計量は最先端の技術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-04-11T23:36:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。