論文の概要: Benchmarking Image Similarity Metrics for Novel View Synthesis Applications
- arxiv url: http://arxiv.org/abs/2506.12563v1
- Date: Sat, 14 Jun 2025 16:21:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.487049
- Title: Benchmarking Image Similarity Metrics for Novel View Synthesis Applications
- Title(参考訳): 新しいビュー合成アプリケーションのためのベンチマーク画像類似度メトリクス
- Authors: Charith Wickrema, Sara Leary, Shivangi Sarkar, Mark Giglio, Eric Bianchi, Eliza Mace, Michael Twardowski,
- Abstract要約: 本研究では,新しい知覚的類似度尺度DreamSimの有効性を評価する。
画像類似度指標の感度と識別力を定量化するために, 人工的に劣化した画像のコーパスを作成する。
- 参考スコア(独自算出の注目度): 0.2094057281590807
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional image similarity metrics are ineffective at evaluating the similarity between a real image of a scene and an artificially generated version of that viewpoint [6, 9, 13, 14]. Our research evaluates the effectiveness of a new, perceptual-based similarity metric, DreamSim [2], and three popular image similarity metrics: Structural Similarity (SSIM), Peak Signal-to-Noise Ratio (PSNR), and Learned Perceptual Image Patch Similarity (LPIPS) [18, 19] in novel view synthesis (NVS) applications. We create a corpus of artificially corrupted images to quantify the sensitivity and discriminative power of each of the image similarity metrics. These tests reveal that traditional metrics are unable to effectively differentiate between images with minor pixel-level changes and those with substantial corruption, whereas DreamSim is more robust to minor defects and can effectively evaluate the high-level similarity of the image. Additionally, our results demonstrate that DreamSim provides a more effective and useful evaluation of render quality, especially for evaluating NVS renders in real-world use cases where slight rendering corruptions are common, but do not affect image utility for human tasks.
- Abstract(参考訳): 従来の画像類似度指標は、シーンの実像と、その視点(6,9,13,14]の人工的に生成されたバージョンとの類似度を評価するのに効果がない。
本研究は,新しい知覚的類似度尺度DreamSim [2]と,構造的類似度(SSIM),ピーク信号対雑音比(PSNR),学習的知覚的画像パッチ類似度(LPIPS)[18,19]の3つの画像類似度指標の有効性を評価する。
画像類似度指標の感度と識別力を定量化するために, 人工的に劣化した画像のコーパスを作成する。
これらのテストによると、従来のメトリクスは、小さなピクセルレベルの変化を持つ画像と、相当な腐敗を持つ画像とを効果的に区別することはできないが、DreamSimは小さな欠陥に対してより堅牢であり、画像の高レベルの類似性を評価することができる。
さらに,DreamSimはレンダリング品質をより効果的かつ有効に評価できることを示した。特に,微妙なレンダリングの破損が一般的だが,人間のタスクのイメージユーティリティに影響を与えない実世界のユースケースにおいて,NVSレンダリングの評価に有効である。
関連論文リスト
- Evaluation of Machine-generated Biomedical Images via A Tally-based Similarity Measure [1.12359878474312]
合成画像の品質を定量的かつ権威的に評価することは困難である。
生成された画質の有意義な評価は、Tversky Indexを使って達成できる。
主な結果は、主観性と本質的な特徴符号化選択の欠陥が先行すると、トヴェルスキーの手法は直感的な結果をもたらすということである。
論文 参考訳(メタデータ) (2025-03-28T17:44:01Z) - CSIM: A Copula-based similarity index sensitive to local changes for Image quality assessment [2.3874115898130865]
画像類似度メトリクスは、画像処理、コンピュータビジョン、機械学習で使用されるため、コンピュータビジョンアプリケーションにおいて重要な役割を果たす。
PSNR、MSE、SSIM、ISSM、FSIMといった既存のメトリクスは、画像の小さな変更に対する速度、複雑さ、感度のいずれにおいても制限に直面していることが多い。
本稿では,画像の微妙な変化に敏感でありながらリアルタイムに組み合わせた新しい画像類似度指標CSIMについて検討する。
論文 参考訳(メタデータ) (2024-10-02T10:46:05Z) - Similarity and Quality Metrics for MR Image-To-Image Translation [0.8932296777085644]
合成画像評価のための11の類似度(参照)と12の品質(非参照)を定量的に分析した。
本研究では,11種類の歪みおよび典型的なMRアーチファクトに対する感度について検討し,各計量および歪みに対する異なる正規化法の影響を解析した。
論文 参考訳(メタデータ) (2024-05-14T08:51:16Z) - Privacy Assessment on Reconstructed Images: Are Existing Evaluation
Metrics Faithful to Human Perception? [86.58989831070426]
本研究では,手作りのメトリクスの忠実さを,再構成画像からの人間のプライバシー情報の認識に適用する。
本稿では,SemSimと呼ばれる学習に基づく尺度を提案し,オリジナル画像と再構成画像のセマンティック類似性を評価する。
論文 参考訳(メタデータ) (2023-09-22T17:58:04Z) - R-LPIPS: An Adversarially Robust Perceptual Similarity Metric [71.33812578529006]
本稿では,Robust Learned Perceptual Image Patch similarity(R-LPIPS)メトリクスを提案する。
R-LPIPSは、敵対的に訓練された深い特徴を活用する新しい指標である。
従来のLPIPSメトリックと比較して,R-LPIPSの優位性を示す。
論文 参考訳(メタデータ) (2023-07-27T19:11:31Z) - Introspective Deep Metric Learning for Image Retrieval [80.29866561553483]
良好な類似性モデルは、より堅牢なトレーニングのために曖昧なイメージをよりよく扱うように注意しながら、意味的な相違を考慮すべきである、と我々は主張する。
本稿では,画像の意味的特徴とあいまいさを記述した,意味的埋め込みだけでなく,付随する不確実性埋め込みを用いて画像を表現することを提案する。
提案したIDMLフレームワークは,不確実性モデリングによるディープメトリック学習の性能向上を実現し,広く使用されているCUB-200-2011,Cars196,Stanford Online Productsデータセットの最先端結果を得る。
論文 参考訳(メタデータ) (2022-05-09T17:51:44Z) - Attributable Visual Similarity Learning [90.69718495533144]
本稿では、画像間のより正確で説明可能な類似度測定のための帰属的視覚類似度学習(AVSL)フレームワークを提案する。
人間の意味的類似性認知に動機づけられた2つの画像とグラフとの類似性を表現するために,一般化された類似性学習パラダイムを提案する。
CUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、既存の深い類似性学習方法よりも大幅に改善されたことを示している。
論文 参考訳(メタデータ) (2022-03-28T17:35:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。