論文の概要: Semantic Snapping for Guided Multi-View Visualization Design
- arxiv url: http://arxiv.org/abs/2109.08384v1
- Date: Fri, 17 Sep 2021 07:40:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-20 21:08:12.345967
- Title: Semantic Snapping for Guided Multi-View Visualization Design
- Title(参考訳): ガイド付き多視点可視化設計のためのセマンティックスナッピング
- Authors: Yngve S. Kristiansen, Laura Garrison and Stefan Bruckner
- Abstract要約: セマンティックスナッピング(semantic snapping)は、非専門家が効果的なマルチビュー視覚化を設計するのに役立つアプローチである。
提案手法では, 矛盾, 誤解を招く, 曖昧な設計の解決方法をオンザフライで検出し, 提案する。
- 参考スコア(独自算出の注目度): 6.8323414329956265
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Visual information displays are typically composed of multiple visualizations
that are used to facilitate an understanding of the underlying data. A common
example are dashboards, which are frequently used in domains such as finance,
process monitoring and business intelligence. However, users may not be aware
of existing guidelines and lack expert design knowledge when composing such
multi-view visualizations. In this paper, we present semantic snapping, an
approach to help non-expert users design effective multi-view visualizations
from sets of pre-existing views. When a particular view is placed on a canvas,
it is "aligned" with the remaining views -- not with respect to its geometric
layout, but based on aspects of the visual encoding itself, such as how data
dimensions are mapped to channels. Our method uses an on-the-fly procedure to
detect and suggest resolutions for conflicting, misleading, or ambiguous
designs, as well as to provide suggestions for alternative presentations. With
this approach, users can be guided to avoid common pitfalls encountered when
composing visualizations. Our provided examples and case studies demonstrate
the usefulness and validity of our approach.
- Abstract(参考訳): 視覚情報ディスプレイは通常、基礎となるデータの理解を容易にするために使用される複数の視覚化で構成されている。
一般的な例としてダッシュボードがあり、金融、プロセス監視、ビジネスインテリジェンスといったドメインで頻繁に使用される。
しかし、ユーザーは既存のガイドラインを意識せず、そのようなマルチビューの視覚化を作成する際にエキスパートデザインの知識を欠いている可能性がある。
本稿では,非専門家が既存のビューのセットから効果的なマルチビューの可視化をデザインするための手法であるsemantic snappingを提案する。
特定のビューがキャンバス上に置かれる場合、それは、その幾何学的レイアウトではなく、データ次元がチャネルにどのようにマッピングされるかといった視覚的エンコーディング自体の側面に基づいて、残りのビューと"一致"する。
本手法では, コンフリクト, 誤解を招く, 曖昧な設計を検知し, 提案するためにオンザフライ方式を用い, 代替案の提案を行う。
このアプローチでは、ビジュアライゼーションを構成する際に遭遇する共通の落とし穴を避けるためにユーザを誘導することができる。
提案する事例と事例研究は,我々のアプローチの有用性と妥当性を示すものである。
関連論文リスト
- Visualizing Extensions of Argumentation Frameworks as Layered Graphs [15.793271603711014]
AFを3層グラフレイアウトとして拡張とともに描画する新しい可視化手法を提案する。
我々の技術は、ユーザがより簡単に可視化されたAFを探索し、拡張をよりよく理解し、セマンティクスを計算するためのアルゴリズムを検証するのを支援する。
論文 参考訳(メタデータ) (2024-09-09T09:29:53Z) - Beyond Mask: Rethinking Guidance Types in Few-shot Segmentation [67.35274834837064]
我々は、テキスト、マスク、ボックス、画像からのプロンプトを統合するユニバーサルビジョン言語フレームワーク(UniFSS)を開発した。
UniFSSは最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-07-16T08:41:01Z) - Freeview Sketching: View-Aware Fine-Grained Sketch-Based Image Retrieval [85.73149096516543]
微細スケッチベース画像検索(FG-SBIR)におけるスケッチ作成時の視点選択について検討する。
パイロットスタディでは、クエリスケッチがターゲットインスタンスと異なる場合、システムの苦労を強調している。
これを解決するために、ビューに依存しないタスクとビュー固有のタスクの両方をシームレスに収容するビューアウェアシステムを提案する。
論文 参考訳(メタデータ) (2024-07-01T21:20:44Z) - VERA: Generating Visual Explanations of Two-Dimensional Embeddings via Region Annotation [0.0]
Visual Explanations via Region (VERA) は2次元埋め込みの視覚的説明を生成する自動埋め込みアノテーション手法である。
VERAは、埋め込み空間内の異なる領域を特徴付ける情報的説明を生成し、ユーザがその埋め込み風景を一目で概観することができる。
実世界のデータセット上でのVERAの利用について説明するとともに,本手法の有効性を比較ユーザスタディで検証する。
論文 参考訳(メタデータ) (2024-06-07T10:23:03Z) - POV: Prompt-Oriented View-Agnostic Learning for Egocentric Hand-Object
Interaction in the Multi-View World [59.545114016224254]
人間は、手と物体の相互作用の第三者による観察をエゴセントリックな視点に変換するのに長けている。
本稿では,自我中心の動画をほとんど持たない視点適応を実現するための,Prompt-Oriented View-Agnostic Learningフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-09T09:54:44Z) - Visual Concept-driven Image Generation with Text-to-Image Diffusion Model [65.96212844602866]
テキスト・ツー・イメージ(TTI)モデルは複雑なシーンの高解像度画像を生成するという印象的な結果を示した。
近年のアプローチでは、これらの手法をパーソナライズ技術で拡張し、ユーザ認証の概念の統合を可能にしている。
しかし、人間の被写体のような複数の相互作用する概念を持つ画像を生成する能力は、1つにまたがったり、複数にまたがったりする概念は、いまだに説明がつかないままである。
これらの課題に対処する概念駆動型TTIパーソナライズフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T07:28:37Z) - Leveraging Open-Vocabulary Diffusion to Camouflaged Instance
Segmentation [59.78520153338878]
テキスト・ツー・イメージ拡散技術は、テキスト記述から高品質な画像を生成する素晴らしい能力を示している。
そこで本研究では,オープン語彙を応用した最先端拡散モデルを用いて,多スケールのテキスト・視覚的特徴を学習する手法を提案する。
論文 参考訳(メタデータ) (2023-12-29T07:59:07Z) - Multispectral Contrastive Learning with Viewmaker Networks [8.635434871127512]
さまざまなリモートセンシングデータセットにコントラスト学習アプローチを適用することに注力する。
また,ビューメーカネットワークは,広範囲なドメイン知識や試行錯誤を必要とせずに,この設定でビューを作成することを約束していることを示す。
論文 参考訳(メタデータ) (2023-02-11T18:44:12Z) - Cross-view Graph Contrastive Representation Learning on Partially
Aligned Multi-view Data [52.491074276133325]
マルチビュー表現学習は、過去数十年間で急速に発展し、多くの分野に応用されてきた。
本稿では,多視点情報を統合してデータアライメントを行い,潜在表現を学習する,新しいクロスビューグラフコントラスト学習フレームワークを提案する。
複数の実データを用いて実験を行い,クラスタリングおよび分類作業における提案手法の有効性を示した。
論文 参考訳(メタデータ) (2022-11-08T09:19:32Z) - Generalized Multi-view Shared Subspace Learning using View Bootstrapping [43.027427742165095]
マルチビュー学習の主な目的は、下流学習タスクを改善するために、オブジェクト/イベントのクラスの複数の並列ビューに共通する情報をモデル化することである。
本稿では,多視点相関に基づくニューラルな手法を提案する。
音声認識、3次元オブジェクト分類、ポーズ不変顔認識の実験は、多数のビューをモデル化するためのビューブートストラップの堅牢性を示している。
論文 参考訳(メタデータ) (2020-05-12T20:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。