論文の概要: VERA: Generating Visual Explanations of Two-Dimensional Embeddings via Region Annotation
- arxiv url: http://arxiv.org/abs/2406.04808v1
- Date: Fri, 7 Jun 2024 10:23:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-10 14:40:28.895257
- Title: VERA: Generating Visual Explanations of Two-Dimensional Embeddings via Region Annotation
- Title(参考訳): VERA:領域アノテーションによる2次元埋め込みの視覚的説明の生成
- Authors: Pavlin G. Poličar, Blaž Zupan,
- Abstract要約: Visual Explanations via Region (VERA) は2次元埋め込みの視覚的説明を生成する自動埋め込みアノテーション手法である。
VERAは、埋め込み空間内の異なる領域を特徴付ける情報的説明を生成し、ユーザがその埋め込み風景を一目で概観することができる。
実世界のデータセット上でのVERAの利用について説明するとともに,本手法の有効性を比較ユーザスタディで検証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Two-dimensional embeddings obtained from dimensionality reduction techniques, such as MDS, t-SNE, and UMAP, are widely used across various disciplines to visualize high-dimensional data. These visualizations provide a valuable tool for exploratory data analysis, allowing researchers to visually identify clusters, outliers, and other interesting patterns in the data. However, interpreting the resulting visualizations can be challenging, as it often requires additional manual inspection to understand the differences between data points in different regions of the embedding space. To address this issue, we propose Visual Explanations via Region Annotation (VERA), an automatic embedding-annotation approach that generates visual explanations for any two-dimensional embedding. VERA produces informative explanations that characterize distinct regions in the embedding space, allowing users to gain an overview of the embedding landscape at a glance. Unlike most existing approaches, which typically require some degree of manual user intervention, VERA produces static explanations, automatically identifying and selecting the most informative visual explanations to show to the user. We illustrate the usage of VERA on a real-world data set and validate the utility of our approach with a comparative user study. Our results demonstrate that the explanations generated by VERA are as useful as fully-fledged interactive tools on typical exploratory data analysis tasks but require significantly less time and effort from the user.
- Abstract(参考訳): MDS, t-SNE, UMAPなどの次元減少技術から得られた2次元埋め込みは、高次元データを可視化するために様々な分野に広く利用されている。
これらの視覚化は、探索的なデータ分析のための貴重なツールを提供し、研究者はデータ内のクラスタ、外れ値、その他の興味深いパターンを視覚的に特定できる。
しかし、埋め込み空間の異なる領域におけるデータポイントの違いを理解するために、追加のマニュアル検査を必要とする場合が多いため、結果の可視化を解釈することは困難である。
この問題に対処するために,2次元埋め込みの視覚的説明を生成する自動埋め込みアノテーション手法であるVERA(Regional Annotation)を提案する。
VERAは、埋め込み空間内の異なる領域を特徴付ける情報的説明を生成し、ユーザがその埋め込み風景を一目で概観することができる。
通常ある程度の手動による介入を必要とする既存のアプローチとは異なり、VERAは静的な説明を生成し、ユーザーに示す最も情報に富んだ視覚的説明を自動的に識別し、選択する。
実世界のデータセット上でのVERAの利用について説明するとともに,本手法の有効性を比較ユーザスタディで検証する。
以上の結果から,VERAが生成した説明は,典型的な探索的データ解析タスクにおいて,完全に知識のある対話ツールとして有用であるが,ユーザによる時間や労力は極めて少ないことが示唆された。
関連論文リスト
- Web-Scale Visual Entity Recognition: An LLM-Driven Data Approach [56.55633052479446]
Webスケールのビジュアルエンティティ認識は、クリーンで大規模なトレーニングデータがないため、重大な課題を呈している。
本稿では,ラベル検証,メタデータ生成,合理性説明に多モーダル大言語モデル(LLM)を活用することによって,そのようなデータセットをキュレートする新しい手法を提案する。
実験により、この自動キュレートされたデータに基づいてトレーニングされたモデルは、Webスケールの視覚的エンティティ認識タスクで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-10-31T06:55:24Z) - "Show Me What's Wrong!": Combining Charts and Text to Guide Data Analysis [4.016592757754338]
金融詐欺検出の文脈では、アナリストは取引データの中で不審な活動を素早く特定する必要がある。
これは、パターンの認識、グループ化、比較といった複雑な探索的なタスクからなる反復的なプロセスである。
これらのステップに固有の情報の過負荷を軽減するため、自動化された情報ハイライト、大規模言語モデルが生成するテキストインサイト、視覚分析を組み合わせたツールを提案する。
論文 参考訳(メタデータ) (2024-10-01T14:16:10Z) - Interactive dense pixel visualizations for time series and model attribution explanations [8.24039921933289]
DAVOTSは、生の時系列データ、ニューラルネットワークのアクティベーション、高密度ピクセル可視化における属性を探索する、インタラクティブなビジュアル分析アプローチである。
可視化されたデータドメインにクラスタリングアプローチを適用し、グループをハイライトし、個々のデータ探索と組み合わせたデータ探索のための順序付け戦略を示す。
論文 参考訳(メタデータ) (2024-08-27T14:02:21Z) - Semantic-Based Active Perception for Humanoid Visual Tasks with Foveal Sensors [49.99728312519117]
この研究の目的は、最近の意味に基づくアクティブな知覚モデルが、人間が定期的に行う視覚的なタスクをいかに正確に達成できるかを確立することである。
このモデルは、現在のオブジェクト検出器が多数のオブジェクトクラスをローカライズし、分類し、複数の固定にまたがるシーンのセマンティック記述を更新する能力を利用する。
シーン探索の課題では、セマンティック・ベースの手法は従来のサリエンシ・ベース・モデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-16T18:15:57Z) - DimVis: Interpreting Visual Clusters in Dimensionality Reduction With Explainable Boosting Machine [3.2748787252933442]
DimVisは、DRプロジェクションの解釈アシスタントとして、教師付きExplainable Boosting Machine(EBM)モデルを使用するツールである。
本ツールは,視覚的クラスタにおける特徴関連性の解釈を提供することにより,高次元データ解析を容易にする。
論文 参考訳(メタデータ) (2024-02-10T04:50:36Z) - Voila-A: Aligning Vision-Language Models with User's Gaze Attention [56.755993500556734]
視覚言語モデル(VLM)を導くために,人間の注意の代用として視線情報を導入する。
本稿では,視線アライメントのための新しいアプローチであるVoila-Aを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:34:01Z) - infoVerse: A Universal Framework for Dataset Characterization with
Multidimensional Meta-information [68.76707843019886]
infoVerseは、データセットの特徴付けのための普遍的なフレームワークである。
infoVerseは、様々なモデル駆動メタ情報を統合することで、データセットの多次元特性をキャプチャする。
実世界の3つのアプリケーション(データプルーニング、アクティブラーニング、データアノテーション)において、infoVerse空間で選択されたサンプルは、強いベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-30T18:12:48Z) - Visual Information Extraction in the Wild: Practical Dataset and
End-to-end Solution [48.693941280097974]
視覚情報抽出(VIE)のためのカメラ画像からなる大規模データセットを提案する。
我々は,OCRの段階と情報抽出をエンド・ツー・エンドの学習方式で組み合わせた,エンド・ツー・エンドVIEのための新しいフレームワークを提案する。
提案したデータセット上で既存のVIEのエンド・ツー・エンド手法を評価し,これらの手法の性能がSROIEから提案したデータセットに相違があることを観察した。
論文 参考訳(メタデータ) (2023-05-12T14:11:47Z) - Modeling Entities as Semantic Points for Visual Information Extraction
in the Wild [55.91783742370978]
文書画像から鍵情報を正確かつ堅牢に抽出する手法を提案する。
我々は、エンティティを意味的ポイントとして明示的にモデル化する。つまり、エンティティの中心点は、異なるエンティティの属性と関係を記述する意味情報によって豊かになる。
提案手法は,従来の最先端モデルと比較して,エンティティラベルとリンクの性能を著しく向上させることができる。
論文 参考訳(メタデータ) (2023-03-23T08:21:16Z) - Sketched Multi-view Subspace Learning for Hyperspectral Anomalous Change
Detection [12.719327447589345]
異常変化検出のためのスケッチ付きマルチビューサブスペース学習モデルを提案する。
提案モデルでは,画像ペアからの主要な情報を保存し,計算複雑性を向上させる。
実験は、ベンチマークハイパースペクトルリモートセンシングデータセットと自然なハイパースペクトルデータセットで実施される。
論文 参考訳(メタデータ) (2022-10-09T14:08:17Z) - Scalable semi-supervised dimensionality reduction with GPU-accelerated
EmbedSOM [0.0]
BlosSOMは高次元データセットの対話型ユーザステアブル可視化のための高性能半教師付き次元減少ソフトウェアである。
現実的なデータセットにBlosSOMを適用することで、ユーザが指定したレイアウトを組み込んだ高品質な視覚化と、特定の機能に集中することが可能になる。
論文 参考訳(メタデータ) (2022-01-03T15:06:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。