論文の概要: Personalized Visualization Recommendation
- arxiv url: http://arxiv.org/abs/2102.06343v1
- Date: Fri, 12 Feb 2021 04:06:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-15 14:24:13.903357
- Title: Personalized Visualization Recommendation
- Title(参考訳): パーソナライズド・ビジュアライゼーション
- Authors: Xin Qian, Ryan A. Rossi, Fan Du, Sungchul Kim, Eunyee Koh, Sana Malik,
Tak Yeon Lee, Nesreen K. Ahmed
- Abstract要約: パーソナライズされた視覚化推奨の問題について紹介し,それを解決するための汎用学習フレームワークを提案する。
特に,過去の可視化インタラクションに基づいて,個々のユーザに対してパーソナライズされた可視化を推奨することに着目した。
ユーザ中心の可視化コーパスをリリースし,230万の属性と32万のユーザ生成視覚化を備えた94kデータセットを探索する17.4kユーザで構成される。
- 参考スコア(独自算出の注目度): 40.838444709402694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visualization recommendation work has focused solely on scoring
visualizations based on the underlying dataset and not the actual user and
their past visualization feedback. These systems recommend the same
visualizations for every user, despite that the underlying user interests,
intent, and visualization preferences are likely to be fundamentally different,
yet vitally important. In this work, we formally introduce the problem of
personalized visualization recommendation and present a generic learning
framework for solving it. In particular, we focus on recommending
visualizations personalized for each individual user based on their past
visualization interactions (e.g., viewed, clicked, manually created) along with
the data from those visualizations. More importantly, the framework can learn
from visualizations relevant to other users, even if the visualizations are
generated from completely different datasets. Experiments demonstrate the
effectiveness of the approach as it leads to higher quality visualization
recommendations tailored to the specific user intent and preferences. To
support research on this new problem, we release our user-centric visualization
corpus consisting of 17.4k users exploring 94k datasets with 2.3 million
attributes and 32k user-generated visualizations.
- Abstract(参考訳): 視覚化の推奨作業は、実際のユーザと過去の視覚化フィードバックではなく、基盤となるデータセットに基づいて視覚化をスコアリングすることのみに焦点を当てています。
これらのシステムはすべてのユーザに対して同じ視覚化を推奨するが、基本的なユーザの関心、意図、視覚化の好みは根本的に異なるが、極めて重要である。
本研究では,パーソナライズド・ビジュアライゼーション・レコメンデーションの問題を正式に導入し,それを解決するための汎用学習フレームワークを提案する。
特に,過去の可視化インタラクション(閲覧,クリック,手作業による生成など)とそれらの可視化データに基づいて,個々のユーザに対してパーソナライズされた可視化を推奨する。
さらに重要なのは、完全に異なるデータセットから視覚化が生成される場合でも、フレームワークが他のユーザに関連する視覚化から学ぶことができることだ。
実験は、特定のユーザーの意図や好みに合わせて高品質の視覚化推奨につながるアプローチの有効性を実証します。
この新しい問題の研究を支援するため、ユーザ中心の可視化コーパスをリリースし、17.4kのユーザが230万の属性と32kのユーザ生成視覚化を備えた94kのデータセットを探索した。
関連論文リスト
- Freeview Sketching: View-Aware Fine-Grained Sketch-Based Image Retrieval [85.73149096516543]
微細スケッチベース画像検索(FG-SBIR)におけるスケッチ作成時の視点選択について検討する。
パイロットスタディでは、クエリスケッチがターゲットインスタンスと異なる場合、システムの苦労を強調している。
これを解決するために、ビューに依存しないタスクとビュー固有のタスクの両方をシームレスに収容するビューアウェアシステムを提案する。
論文 参考訳(メタデータ) (2024-07-01T21:20:44Z) - Learning User Embeddings from Human Gaze for Personalised Saliency Prediction [12.361829928359136]
本稿では,自然画像のペアと対応する相性マップからユーザ埋め込みを抽出する新しい手法を提案する。
提案手法のコアとなるのは,異なるユーザのイメージと個人満足度マップのペアを対比することにより,ユーザの埋め込みを学習する,シームズ畳み込みニューラルエンコーダである。
論文 参考訳(メタデータ) (2024-03-20T14:58:40Z) - Show Me What I Like: Detecting User-Specific Video Highlights Using
Content-Based Multi-Head Attention [58.44096082508686]
そこで本稿では,従来視聴したビデオに表示されていたハイライトクリップに基づいて,対象ビデオの個別化ハイライトを検出する手法を提案する。
本手法は,対象物と人的活動の事前学習機能を用いて,好むクリップの内容と対象ビデオの両方を明示的に活用する。
論文 参考訳(メタデータ) (2022-07-18T02:32:48Z) - VizAI : Selecting Accurate Visualizations of Numerical Data [2.6039035727217907]
VizAIは、データの様々な統計特性を最初に生成する生成的識別フレームワークである。
これは、視覚化されるデータの真の統計に最もよく一致する視覚化を選択する識別モデルにリンクされている。
VizAIは、最小限の監督で容易に訓練でき、様々な監督レベルの設定に適応できる。
論文 参考訳(メタデータ) (2021-11-07T22:05:44Z) - Semantic Snapping for Guided Multi-View Visualization Design [6.8323414329956265]
セマンティックスナッピング(semantic snapping)は、非専門家が効果的なマルチビュー視覚化を設計するのに役立つアプローチである。
提案手法では, 矛盾, 誤解を招く, 曖昧な設計の解決方法をオンザフライで検出し, 提案する。
論文 参考訳(メタデータ) (2021-09-17T07:40:56Z) - Insight-centric Visualization Recommendation [47.690901962177996]
本稿では,関連洞察群とグループ内の最も重要な洞察群の両方を自動的にランク付けし,推薦する可視化推薦システムを紹介する。
重要な利点は、このアプローチがカテゴリ型、数値型、時間型などの幅広い属性タイプ、およびこれらの異なる属性タイプの複雑な非自明な組み合わせに一般化できることです。
12人の参加者と2つのデータセットでユーザ調査を行い,不慣れなデータからユーザが素早く理解し,関連する洞察を得ることができることを示した。
論文 参考訳(メタデータ) (2021-03-21T03:30:22Z) - ML-based Visualization Recommendation: Learning to Recommend
Visualizations from Data [44.90479301447387]
ビジュアライゼーションレコメンデーションは、ユーザーに自動的に有用なビジュアライゼーションを生成し、スコア付けし、推奨する。
本稿では,データセットと視覚化の大規模なコーパスを入力として利用する,エンドツーエンドのMLベースの可視化システムを提案する。
エンドツーエンドのMLベースのシステムでは、既存の最先端のルールベースのシステムと比較して、より効果的で有用な視覚化を推奨しています。
論文 参考訳(メタデータ) (2020-09-25T16:13:29Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。