論文の概要: Safire: Similarity Framework for Visualization Retrieval
- arxiv url: http://arxiv.org/abs/2510.16662v1
- Date: Sat, 18 Oct 2025 23:11:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.086055
- Title: Safire: Similarity Framework for Visualization Retrieval
- Title(参考訳): Safire: 視覚化検索のための類似性フレームワーク
- Authors: Huyen N. Nguyen, Nils Gehlenborg,
- Abstract要約: 比較基準と表現のモダリティの2次元に沿って視覚化の類似性をフレーム化する概念モデルであるSimisity Framework for Visualization Retrieval(Safire)を紹介した。
そこで本研究では,類似性を考慮した可視化検索システムSafireについて,その実用的価値を実証するために分析を行った。
- 参考スコア(独自算出の注目度): 7.468307805375097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective visualization retrieval necessitates a clear definition of similarity. Despite the growing body of work in specialized visualization retrieval systems, a systematic approach to understanding visualization similarity remains absent. We introduce the Similarity Framework for Visualization Retrieval (Safire), a conceptual model that frames visualization similarity along two dimensions: comparison criteria and representation modalities. Comparison criteria identify the aspects that make visualizations similar, which we divide into primary facets (data, visual encoding, interaction, style, metadata) and derived properties (data-centric and human-centric measures). Safire connects what to compare with how comparisons are executed through representation modalities. We categorize existing representation approaches into four groups based on their levels of information content and visualization determinism: raster image, vector image, specification, and natural language description, together guiding what is computable and comparable. We analyze several visualization retrieval systems using Safire to demonstrate its practical value in clarifying similarity considerations. Our findings reveal how particular criteria and modalities align across different use cases. Notably, the choice of representation modality is not only an implementation detail but also an important decision that shapes retrieval capabilities and limitations. Based on our analysis, we provide recommendations and discuss broader implications for multimodal learning, AI applications, and visualization reproducibility.
- Abstract(参考訳): 効果的な可視化検索は、類似性を明確に定義する必要がある。
専門的な視覚化検索システムにおける作業の活発化にもかかわらず、可視化の類似性を理解するための体系的なアプローチはいまだに存在しない。
比較基準と表現のモダリティの2次元に沿って視覚化の類似性をフレーム化する概念モデルであるSimisity Framework for Visualization Retrieval(Safire)を紹介した。
比較基準は、視覚化を類似させる側面を特定し、その側面を第一の面(データ、視覚的エンコーディング、インタラクション、スタイル、メタデータ)と派生特性(データ中心、人間中心)に分割する。
Safireは、表現モダリティによる比較の実行方法と比較するものを結合する。
既存の表現手法を,ラースター画像,ベクトル画像,仕様,自然言語記述という,情報内容と可視化決定性のレベルに基づいて4つのグループに分類し,計算可能かつ同等なものを導出する。
そこで本研究では,類似性を考慮した可視化検索システムSafireについて,その実用的価値を実証するために分析を行った。
以上の結果から,特定の基準とモダリティが異なるユースケース間でどのように一致しているかが明らかとなった。
特に、表現のモダリティの選択は、実装の詳細だけでなく、検索能力と制限を形作る重要な決定でもある。
分析に基づいて、マルチモーダル学習、AIアプリケーション、可視化再現性に対するより広範な影響を論じる。
関連論文リスト
- Mind-the-Glitch: Visual Correspondence for Detecting Inconsistencies in Subject-Driven Generation [120.23172120151821]
本稿では,事前学習した拡散モデルのバックボーンから視覚的特徴と意味的特徴を分離するための新しいアプローチを提案する。
注釈付きセマンティックと視覚対応を備えた画像ペアを構築する自動パイプラインを導入する。
被験者駆動画像生成における視覚的不整合を定量化する新しい指標であるビジュアルセマンティックマッチングを提案する。
論文 参考訳(メタデータ) (2025-09-26T07:11:55Z) - Multimodal Representation Alignment for Cross-modal Information Retrieval [12.42313654539524]
異なる機械学習モデルは、異なる方法で同じ基礎概念を表現することができる。
この可変性は、入力として与えられた1つのモダリティで対応する表現を識別することを目的として、Wildのマルチモーダル検索において特に有用である。
そこで本研究では,視覚言語モデルと統合単調モデルの両方から得られる視覚とテキストの埋め込みの幾何学的関係について検討する。
次に、ニューラルネットワークを介して実装された4つの標準的な類似度メトリクスと2つの学習した指標を使用して、これらの表現を調整します。
論文 参考訳(メタデータ) (2025-06-10T13:16:26Z) - Seeing Eye to AI? Applying Deep-Feature-Based Similarity Metrics to Information Visualization [22.920857549451668]
近年の研究では、画像類似性の知覚的判断と深い特徴に基づく類似度指標がよく相関していることが示されている。
5つのMLアーキテクチャと3つの事前訓練された重み集合を用いて類似度尺度を拡張する。
我々の研究は、深い機能ベースのメトリクスが視覚化における類似性評価をどのように強化するかを理解し、視覚分析ツールや技術の改善に寄与する。
論文 参考訳(メタデータ) (2025-02-28T22:25:04Z) - Objective drives the consistency of representational similarity across datasets [19.99817888941361]
本稿では,モデル間の表現的類似度が,表現を構成するために使用される刺激の集合によってどのように変化するかを測定するための体系的手法を提案する。
自己教師付き視覚モデルは、相対的なペアの類似性が、あるデータセットから別のデータセットへより良く一般化する表現を学ぶ。
我々の研究は、データセット間のモデル表現の類似性を分析し、それらの類似性とタスクの振る舞いの違いを関連付けるためのフレームワークを提供する。
論文 参考訳(メタデータ) (2024-11-08T13:35:45Z) - When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - fruit-SALAD: A Style Aligned Artwork Dataset to reveal similarity perception in image embeddings [0.0]
スタイルアラインドアートワークデータセット(SALAD)を紹介する。
このセマンティックなカテゴリとスタイルのベンチマークは、10の区別容易なスタイルに対して、10の認識容易なフルーツカテゴリのそれぞれ100のインスタンスで構成されている。
SALADフレームワークは、これらのモデルがどのようにセマンティックなカテゴリとスタイル認識タスクを実行するかの比較を可能にする。
論文 参考訳(メタデータ) (2024-06-03T12:47:48Z) - Interpretable Measures of Conceptual Similarity by
Complexity-Constrained Descriptive Auto-Encoding [112.0878081944858]
画像間の類似度を定量化することは、画像ベースの機械学習にとって重要な著作権問題である。
我々は,高次関係を捉えた画像間での「概念的類似性」の概念を定義し,計算することを目指している。
2つの非常に異種な画像は、その記述の早い段階で識別できるが、概念的に異種な画像は、より詳細を区別する必要がある。
論文 参考訳(メタデータ) (2024-02-14T03:31:17Z) - Not All Instances Contribute Equally: Instance-adaptive Class
Representation Learning for Few-Shot Visual Recognition [94.04041301504567]
少数ショットの視覚認識は、いくつかのラベル付きインスタンスから新しい視覚概念を認識することを指す。
本稿では,数ショットの視覚認識を実現するために,インスタンス適応型クラス表現学習ネットワーク(ICRL-Net)と呼ばれる新しいメトリックベースのメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-07T10:00:18Z) - Contextual Similarity Aggregation with Self-attention for Visual
Re-ranking [96.55393026011811]
本稿では,自己注意を伴う文脈的類似性集約による視覚的再ランク付け手法を提案する。
提案手法の汎用性と有効性を示すため,4つのベンチマークデータセットの総合的な実験を行った。
論文 参考訳(メタデータ) (2021-10-26T06:20:31Z) - Cross-Modal Discrete Representation Learning [73.68393416984618]
本稿では,様々なモダリティにまたがるより細かい粒度を捉える表現を学習する自己教師型学習フレームワークを提案する。
我々のフレームワークは、異なるモダリティ間で共有されるベクトル量子化によって生成される離散化された埋め込み空間に依存している。
論文 参考訳(メタデータ) (2021-06-10T00:23:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。