論文の概要: Semantic Snapping for Guided Multi-View Visualization Design
- arxiv url: http://arxiv.org/abs/2109.08384v1
- Date: Fri, 17 Sep 2021 07:40:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-20 21:08:12.345967
- Title: Semantic Snapping for Guided Multi-View Visualization Design
- Title(参考訳): ガイド付き多視点可視化設計のためのセマンティックスナッピング
- Authors: Yngve S. Kristiansen, Laura Garrison and Stefan Bruckner
- Abstract要約: セマンティックスナッピング(semantic snapping)は、非専門家が効果的なマルチビュー視覚化を設計するのに役立つアプローチである。
提案手法では, 矛盾, 誤解を招く, 曖昧な設計の解決方法をオンザフライで検出し, 提案する。
- 参考スコア(独自算出の注目度): 6.8323414329956265
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Visual information displays are typically composed of multiple visualizations
that are used to facilitate an understanding of the underlying data. A common
example are dashboards, which are frequently used in domains such as finance,
process monitoring and business intelligence. However, users may not be aware
of existing guidelines and lack expert design knowledge when composing such
multi-view visualizations. In this paper, we present semantic snapping, an
approach to help non-expert users design effective multi-view visualizations
from sets of pre-existing views. When a particular view is placed on a canvas,
it is "aligned" with the remaining views -- not with respect to its geometric
layout, but based on aspects of the visual encoding itself, such as how data
dimensions are mapped to channels. Our method uses an on-the-fly procedure to
detect and suggest resolutions for conflicting, misleading, or ambiguous
designs, as well as to provide suggestions for alternative presentations. With
this approach, users can be guided to avoid common pitfalls encountered when
composing visualizations. Our provided examples and case studies demonstrate
the usefulness and validity of our approach.
- Abstract(参考訳): 視覚情報ディスプレイは通常、基礎となるデータの理解を容易にするために使用される複数の視覚化で構成されている。
一般的な例としてダッシュボードがあり、金融、プロセス監視、ビジネスインテリジェンスといったドメインで頻繁に使用される。
しかし、ユーザーは既存のガイドラインを意識せず、そのようなマルチビューの視覚化を作成する際にエキスパートデザインの知識を欠いている可能性がある。
本稿では,非専門家が既存のビューのセットから効果的なマルチビューの可視化をデザインするための手法であるsemantic snappingを提案する。
特定のビューがキャンバス上に置かれる場合、それは、その幾何学的レイアウトではなく、データ次元がチャネルにどのようにマッピングされるかといった視覚的エンコーディング自体の側面に基づいて、残りのビューと"一致"する。
本手法では, コンフリクト, 誤解を招く, 曖昧な設計を検知し, 提案するためにオンザフライ方式を用い, 代替案の提案を行う。
このアプローチでは、ビジュアライゼーションを構成する際に遭遇する共通の落とし穴を避けるためにユーザを誘導することができる。
提案する事例と事例研究は,我々のアプローチの有用性と妥当性を示すものである。
関連論文リスト
- POV: Prompt-Oriented View-Agnostic Learning for Egocentric Hand-Object
Interaction in the Multi-View World [59.545114016224254]
人間は、手と物体の相互作用の第三者による観察をエゴセントリックな視点に変換するのに長けている。
本稿では,自我中心の動画をほとんど持たない視点適応を実現するための,Prompt-Oriented View-Agnostic Learningフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-09T09:54:44Z) - Visual Concept-driven Image Generation with Text-to-Image Diffusion
Model [69.89451490936652]
テキスト・ツー・イメージ(TTI)モデルでは、複雑で想像力のあるシーンの高解像度画像を生成するという印象的な結果が示されている。
近年のアプローチでは、これらの手法をパーソナライズ技術で拡張し、ユーザ認証の概念の統合を可能にしている。
しかし、人間の被写体のような複数の相互作用する概念を持つ画像を生成する能力は、1つにまたがったり、複数にまたがったりする概念は、いまだに説明がつかないままである。
これらの課題に対処する概念駆動型TTIパーソナライズフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T07:28:37Z) - Leveraging Open-Vocabulary Diffusion to Camouflaged Instance
Segmentation [59.78520153338878]
テキスト・ツー・イメージ拡散技術は、テキスト記述から高品質な画像を生成する素晴らしい能力を示している。
そこで本研究では,オープン語彙を応用した最先端拡散モデルを用いて,多スケールのテキスト・視覚的特徴を学習する手法を提案する。
論文 参考訳(メタデータ) (2023-12-29T07:59:07Z) - Learning Representations without Compositional Assumptions [79.12273403390311]
本稿では,特徴集合をグラフノードとして表現し,それらの関係を学習可能なエッジとして表現することで,特徴集合の依存関係を学習するデータ駆動型アプローチを提案する。
また,複数のビューから情報を動的に集約するために,より小さな潜在グラフを学習する新しい階層グラフオートエンコーダLEGATOを導入する。
論文 参考訳(メタデータ) (2023-05-31T10:36:10Z) - Modeling Entities as Semantic Points for Visual Information Extraction
in the Wild [55.91783742370978]
文書画像から鍵情報を正確かつ堅牢に抽出する手法を提案する。
我々は、エンティティを意味的ポイントとして明示的にモデル化する。つまり、エンティティの中心点は、異なるエンティティの属性と関係を記述する意味情報によって豊かになる。
提案手法は,従来の最先端モデルと比較して,エンティティラベルとリンクの性能を著しく向上させることができる。
論文 参考訳(メタデータ) (2023-03-23T08:21:16Z) - Multispectral Contrastive Learning with Viewmaker Networks [8.635434871127512]
さまざまなリモートセンシングデータセットにコントラスト学習アプローチを適用することに注力する。
また,ビューメーカネットワークは,広範囲なドメイン知識や試行錯誤を必要とせずに,この設定でビューを作成することを約束していることを示す。
論文 参考訳(メタデータ) (2023-02-11T18:44:12Z) - Cross-view Graph Contrastive Representation Learning on Partially
Aligned Multi-view Data [52.491074276133325]
マルチビュー表現学習は、過去数十年間で急速に発展し、多くの分野に応用されてきた。
本稿では,多視点情報を統合してデータアライメントを行い,潜在表現を学習する,新しいクロスビューグラフコントラスト学習フレームワークを提案する。
複数の実データを用いて実験を行い,クラスタリングおよび分類作業における提案手法の有効性を示した。
論文 参考訳(メタデータ) (2022-11-08T09:19:32Z) - Silhouette based View embeddings for Gait Recognition under Multiple
Views [46.087837374748005]
本稿では,既存の歩行認識アーキテクチャにビュー情報を組み込む,互換性のあるフレームワークを提案する。
2つの大規模な公開データセットの実験結果から,提案フレームワークは非常に有効であることがわかった。
論文 参考訳(メタデータ) (2021-08-12T04:19:04Z) - Personalized Visualization Recommendation [40.838444709402694]
パーソナライズされた視覚化推奨の問題について紹介し,それを解決するための汎用学習フレームワークを提案する。
特に,過去の可視化インタラクションに基づいて,個々のユーザに対してパーソナライズされた可視化を推奨することに着目した。
ユーザ中心の可視化コーパスをリリースし,230万の属性と32万のユーザ生成視覚化を備えた94kデータセットを探索する17.4kユーザで構成される。
論文 参考訳(メタデータ) (2021-02-12T04:06:34Z) - Generalized Multi-view Shared Subspace Learning using View Bootstrapping [43.027427742165095]
マルチビュー学習の主な目的は、下流学習タスクを改善するために、オブジェクト/イベントのクラスの複数の並列ビューに共通する情報をモデル化することである。
本稿では,多視点相関に基づくニューラルな手法を提案する。
音声認識、3次元オブジェクト分類、ポーズ不変顔認識の実験は、多数のビューをモデル化するためのビューブートストラップの堅牢性を示している。
論文 参考訳(メタデータ) (2020-05-12T20:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。