論文の概要: Shift-tolerant Perceptual Similarity Metric
- arxiv url: http://arxiv.org/abs/2207.13686v1
- Date: Wed, 27 Jul 2022 17:55:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 13:47:37.558419
- Title: Shift-tolerant Perceptual Similarity Metric
- Title(参考訳): シフト耐性感性類似度指標
- Authors: Abhijay Ghildyal, Feng Liu
- Abstract要約: 既存の知覚的類似度指標は、画像とその参照がよく一致していると仮定する。
本稿では,入力画像と参照画像の小さなずれが既存の指標に与える影響について検討する。
我々は,新しいディープニューラルネットワークに基づく知覚的類似度測定法を開発した。
- 参考スコア(独自算出の注目度): 5.326626090397465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing perceptual similarity metrics assume an image and its reference are
well aligned. As a result, these metrics are often sensitive to a small
alignment error that is imperceptible to the human eyes. This paper studies the
effect of small misalignment, specifically a small shift between the input and
reference image, on existing metrics, and accordingly develops a shift-tolerant
similarity metric. This paper builds upon LPIPS, a widely used learned
perceptual similarity metric, and explores architectural design considerations
to make it robust against imperceptible misalignment. Specifically, we study a
wide spectrum of neural network elements, such as anti-aliasing filtering,
pooling, striding, padding, and skip connection, and discuss their roles in
making a robust metric. Based on our studies, we develop a new deep neural
network-based perceptual similarity metric. Our experiments show that our
metric is tolerant to imperceptible shifts while being consistent with the
human similarity judgment.
- Abstract(参考訳): 既存の知覚的類似度指標は、画像とその参照がよく一致していると仮定する。
その結果、これらの指標は人間の目では認識できない小さなアライメントエラーに敏感であることが多い。
本稿では,入力画像と参照画像の小さなずれが既存の指標に与える影響について検討し,シフト耐性の類似度指標を開発した。
本論文は,広く用いられている知覚類似度指標であるlpipsを基盤とし,知覚不能な誤認に対して頑健なアーキテクチャ設計を考察する。
具体的には、アンチエイリアスフィルタリング、プーリング、ストライド、パディング、スキップ接続など、ニューラルネットワーク要素の幅広いスペクトルを調査し、ロバストなメトリックを作る上での役割について論じる。
本研究では,新しい深層ニューラルネットワークに基づく知覚類似度指標を開発した。
我々の実験は、人間の類似性判定と一致しながらも、我々の測定値が知覚不可能な変化に寛容であることを示している。
関連論文リスト
- LipSim: A Provably Robust Perceptual Similarity Metric [56.03417732498859]
敵攻撃に対するViTベースの特徴抽出器のアンサンブルに基づく,最先端の知覚的類似度指標の脆弱性を示す。
次に、証明可能な保証とともに、LipSimと呼ばれる堅牢な知覚的類似度メトリックをトレーニングするためのフレームワークを提案する。
LipSimは、各データポイント周辺の保護された領域と、$ell$ ball内のすべての摂動の証明書を提供する。
論文 参考訳(メタデータ) (2023-10-27T16:59:51Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - R-LPIPS: An Adversarially Robust Perceptual Similarity Metric [71.33812578529006]
本稿では,Robust Learned Perceptual Image Patch similarity(R-LPIPS)メトリクスを提案する。
R-LPIPSは、敵対的に訓練された深い特徴を活用する新しい指標である。
従来のLPIPSメトリックと比較して,R-LPIPSの優位性を示す。
論文 参考訳(メタデータ) (2023-07-27T19:11:31Z) - DreamSim: Learning New Dimensions of Human Visual Similarity using
Synthetic Data [43.247597420676044]
現在の知覚的類似度メトリクスは、ピクセルとパッチのレベルで動作します。
これらのメトリクスは、低レベルの色やテクスチャの観点から画像を比較するが、画像レイアウト、オブジェクトポーズ、セマンティック内容の中間レベルの類似点や相違点をキャプチャできない。
我々は,画像の全体的評価を行う知覚的指標を開発した。
論文 参考訳(メタデータ) (2023-06-15T17:59:50Z) - Attacking Perceptual Similarity Metrics [5.326626090397465]
本研究は,非受容性対向摂動に対する類似度指標の頑健さを系統的に検討する。
まず、我々の研究のすべての指標が、共通の敵対的攻撃によって生じる摂動に影響を受けやすいことを示します。
次に,空間変換に基づく対向的摂動を用いて,広く採用されているLPIPSメトリックを攻撃した。
論文 参考訳(メタデータ) (2023-05-15T17:55:04Z) - Self-similarity Driven Scale-invariant Learning for Weakly Supervised
Person Search [66.95134080902717]
自己相似性駆動型スケール不変学習(SSL)という新しいワンステップフレームワークを提案する。
本稿では,ネットワークを前景と学習スケール不変の機能に集中させるための,マルチスケール・エクステンプラー・ブランチを提案する。
PRWおよびCUHK-SYSUデータベースの実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-02-25T04:48:11Z) - Identifying and Mitigating Flaws of Deep Perceptual Similarity Metrics [1.484528358552186]
本研究は,Deep Perceptual similarity(DPS)メトリクスの利点と欠点について考察する。
メトリクスは、メトリクスの長所と短所を理解するために、詳細に分析されます。
この研究は、DPSの欠陥に関する新たな洞察に寄与し、さらにメトリクスの改善を提案する。
論文 参考訳(メタデータ) (2022-07-06T08:28:39Z) - Modulated Contrast for Versatile Image Synthesis [60.304183493234376]
MoNCEは画像のコントラストを導入し、多面的画像間距離の知覚のための校正基準を学習する。
複数の対照的な目的に対して協調的に負のサンプルのプッシュ力を変調するために,MoNCEの最適輸送を導入する。
論文 参考訳(メタデータ) (2022-03-17T14:03:46Z) - Feature Space Targeted Attacks by Statistic Alignment [74.40447383387574]
特徴空間ターゲットは、中間特徴写像を変調して摂動画像を攻撃する。
画素ワイドユークリッド距離の現在の選択は、ソースとターゲットの特徴に不合理に空間整合性制約を課すため、不一致を測定することが疑問視されている。
本稿では,Pair-wise Alignment AttackとGlobal-wise Alignment Attackという2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2021-05-25T03:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。