論文の概要: Seeing Eye to AI? Applying Deep-Feature-Based Similarity Metrics to Information Visualization
- arxiv url: http://arxiv.org/abs/2503.00228v1
- Date: Fri, 28 Feb 2025 22:25:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:21:11.500913
- Title: Seeing Eye to AI? Applying Deep-Feature-Based Similarity Metrics to Information Visualization
- Title(参考訳): AIに目を向ける : 深部機能に基づく類似度メトリクスを情報可視化に適用する
- Authors: Sheng Long, Angelos Chatzimparmpas, Emma Alexander, Matthew Kay, Jessica Hullman,
- Abstract要約: 近年の研究では、画像類似性の知覚的判断と深い特徴に基づく類似度指標がよく相関していることが示されている。
5つのMLアーキテクチャと3つの事前訓練された重み集合を用いて類似度尺度を拡張する。
我々の研究は、深い機能ベースのメトリクスが視覚化における類似性評価をどのように強化するかを理解し、視覚分析ツールや技術の改善に寄与する。
- 参考スコア(独自算出の注目度): 22.920857549451668
- License:
- Abstract: Judging the similarity of visualizations is crucial to various applications, such as visualization-based search and visualization recommendation systems. Recent studies show deep-feature-based similarity metrics correlate well with perceptual judgments of image similarity and serve as effective loss functions for tasks like image super-resolution and style transfer. We explore the application of such metrics to judgments of visualization similarity. We extend a similarity metric using five ML architectures and three pre-trained weight sets. We replicate results from previous crowd-sourced studies on scatterplot and visual channel similarity perception. Notably, our metric using pre-trained ImageNet weights outperformed gradient-descent tuned MS-SSIM, a multi-scale similarity metric based on luminance, contrast, and structure. Our work contributes to understanding how deep-feature-based metrics can enhance similarity assessments in visualization, potentially improving visual analysis tools and techniques. Supplementary materials are available at https://osf.io/dj2ms.
- Abstract(参考訳): ビジュアライゼーションの類似性を判断することは、ビジュアライゼーションベースの検索やビジュアライゼーションレコメンデーションシステムなど、さまざまなアプリケーションにとって不可欠である。
近年の研究では、画像類似性の知覚的判断と深い特徴に基づく類似度指標がよく相関しており、画像超解像やスタイル伝達といったタスクの効果的な損失関数として機能している。
可視化類似性判定へのこのような指標の適用について検討する。
5つのMLアーキテクチャと3つの事前訓練された重み集合を用いて類似度尺度を拡張する。
過去のクラウドソースによるスキャッタープロットと視覚チャネル類似性知覚の研究の結果を再現する。
特に,事前学習した画像ネットの重みを用いた距離は,輝度,コントラスト,構造に基づくマルチスケール類似度尺度であるMS-SSIMよりも優れていた。
我々の研究は、深い機能ベースのメトリクスが視覚化における類似性評価をどのように強化するかを理解し、視覚分析ツールや技術の改善に寄与する。
追加資料はhttps://osf.io/dj2ms.comで入手できる。
関連論文リスト
- DiffSim: Taming Diffusion Models for Evaluating Visual Similarity [19.989551230170584]
本稿では,生成モデルにおける視覚的類似度を測定するDiffSim法を提案する。
Denoising U-Netの注目層に特徴を合わせることで、DiffSimは外観とスタイルの類似性の両方を評価する。
また,Sref と IP ベンチマークを導入し,視覚的類似性の評価を行った。
論文 参考訳(メタデータ) (2024-12-19T07:00:03Z) - Synergy and Diversity in CLIP: Enhancing Performance Through Adaptive Backbone Ensembling [58.50618448027103]
コントラスト言語-画像事前学習(CLIP)は画像表現学習において顕著な手法である。
本稿では,CLIPを訓練した視覚バックボーンの違いについて検討する。
方法によって、最高の単一のバックボーンよりも39.1%の精度が著しく向上する。
論文 参考訳(メタデータ) (2024-05-27T12:59:35Z) - Learning an Adaptation Function to Assess Image Visual Similarities [0.0]
ここでは、類推が重要となるとき、視覚的イメージ類似性を学ぶための特定のタスクに焦点を当てる。
本稿では,異なるスケールとコンテンツデータセットで事前学習した,教師付き,半教師付き,自己教師型ネットワークの比較を提案する。
The Totally Looks Like Image dataset conducted on the Totally Looks Like image highlight the interest of our method, by increase the search scores of the best model @1 by 2.25x。
論文 参考訳(メタデータ) (2022-06-03T07:15:00Z) - Attributable Visual Similarity Learning [90.69718495533144]
本稿では、画像間のより正確で説明可能な類似度測定のための帰属的視覚類似度学習(AVSL)フレームワークを提案する。
人間の意味的類似性認知に動機づけられた2つの画像とグラフとの類似性を表現するために,一般化された類似性学習パラダイムを提案する。
CUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、既存の深い類似性学習方法よりも大幅に改善されたことを示している。
論文 参考訳(メタデータ) (2022-03-28T17:35:31Z) - A study of deep perceptual metrics for image quality assessment [3.254879465902239]
我々は、画像品質評価(IQA)タスクに取り組むために、ディープニューラルネットワークに基づく知覚メトリクスについて検討する。
異なる解像度で知覚情報を集約できる多分解能知覚距離(MR-Perceptual)を提案する。
論文 参考訳(メタデータ) (2022-02-17T14:52:53Z) - Contextual Similarity Aggregation with Self-attention for Visual
Re-ranking [96.55393026011811]
本稿では,自己注意を伴う文脈的類似性集約による視覚的再ランク付け手法を提案する。
提案手法の汎用性と有効性を示すため,4つのベンチマークデータセットの総合的な実験を行った。
論文 参考訳(メタデータ) (2021-10-26T06:20:31Z) - Deep Relational Metric Learning [84.95793654872399]
本稿では,画像クラスタリングと検索のためのディープリレーショナルメトリック学習フレームワークを提案する。
我々は、クラス間分布とクラス内分布の両方をモデル化するために、異なる側面から画像を特徴付ける特徴のアンサンブルを学ぶ。
広く使われているCUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、我々のフレームワークが既存の深層学習方法を改善し、非常に競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2021-08-23T09:31:18Z) - Towards Interpretable Deep Metric Learning with Structural Matching [86.16700459215383]
より透過的な埋め込み学習のための深層解釈可能なメトリック学習(DIML)法を提案する。
本手法は,既製のバックボーンネットワークやメトリック学習手法に適用可能な,モデルに依存しない手法である。
我々は,CUB200-2011,Cars196,Stanford Online Productsの3つの大規模メトリクス学習ベンチマークで評価を行った。
論文 参考訳(メタデータ) (2021-08-12T17:59:09Z) - Determining Image similarity with Quasi-Euclidean Metric [0.0]
擬似ユークリッド計量を画像類似度尺度として評価し,SSIMやユークリッド計量といった既存の標準手法とどのように一致しているかを分析する。
いくつかのケースでは、我々の方法論は顕著な性能を予測しており、我々の実装が類似性を認識するための一歩であることを証明していることも興味深い。
論文 参考訳(メタデータ) (2020-06-25T18:12:21Z) - Geometrically Mappable Image Features [85.81073893916414]
地図内のエージェントの視覚に基づくローカライゼーションは、ロボット工学とコンピュータビジョンにおいて重要な問題である。
本稿では,画像検索を対象とした画像特徴学習手法を提案する。
論文 参考訳(メタデータ) (2020-03-21T15:36:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。