論文の概要: Data Formulator: AI-powered Concept-driven Visualization Authoring
- arxiv url: http://arxiv.org/abs/2309.10094v1
- Date: Mon, 18 Sep 2023 19:06:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 17:48:18.198584
- Title: Data Formulator: AI-powered Concept-driven Visualization Authoring
- Title(参考訳): データフォーミュラ - AIによる概念駆動可視化オーサリング
- Authors: Chenglong Wang, John Thompson, Bongshin Lee
- Abstract要約: 我々は、高レベルの可視化意図と低レベルのデータ変換ステップを分離する新しい可視化パラダイム、概念バインディングを提案する。
Data Formulatorでは、著者がまず自然言語や例を使って視覚化するデータ概念を定義し、それをビジュアルチャネルにバインドする。
Data FormulatorはAIエージェントをディスパッチして、入力データを自動的に変換してこれらの概念をサーフェスし、望ましい視覚化を生成する。
- 参考スコア(独自算出の注目度): 31.45748186186275
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With most modern visualization tools, authors need to transform their data
into tidy formats to create visualizations they want. Because this requires
experience with programming or separate data processing tools, data
transformation remains a barrier in visualization authoring. To address this
challenge, we present a new visualization paradigm, concept binding, that
separates high-level visualization intents and low-level data transformation
steps, leveraging an AI agent. We realize this paradigm in Data Formulator, an
interactive visualization authoring tool. With Data Formulator, authors first
define data concepts they plan to visualize using natural languages or
examples, and then bind them to visual channels. Data Formulator then
dispatches its AI-agent to automatically transform the input data to surface
these concepts and generate desired visualizations. When presenting the results
(transformed table and output visualizations) from the AI agent, Data
Formulator provides feedback to help authors inspect and understand them. A
user study with 10 participants shows that participants could learn and use
Data Formulator to create visualizations that involve challenging data
transformations, and presents interesting future research directions.
- Abstract(参考訳): ほとんどの現代的な視覚化ツールでは、著者はデータをティディなフォーマットに変換して、望む視覚化を作成する必要があります。
これは、プログラミングまたは別々のデータ処理ツールの経験を必要とするため、データ変換はビジュアライゼーションのオーサリングにおける障壁である。
この課題に対処するために、我々はaiエージェントを利用して、高レベルの可視化インテントと低レベルのデータ変換ステップを分離する新しい可視化パラダイムであるコンセプトバインディングを提案する。
我々はこのパラダイムをインタラクティブな可視化オーサリングツールであるData Formulatorで実現した。
Data Formulatorでは、著者がまず自然言語や例を使って視覚化するデータ概念を定義し、それをビジュアルチャネルにバインドする。
データフォーミュラはAIエージェントを送信し、入力データを自動的に変換してこれらの概念をサーフェスし、望ましい視覚化を生成する。
aiエージェントから結果(変換されたテーブルと出力の視覚化)を提示する場合、data formulatorは著者の検査と理解を支援するフィードバックを提供する。
10人の参加者によるユーザスタディでは、参加者がデータフォーミュラを学習し、データ変換に挑戦する視覚化を作成し、今後の興味深い研究の方向性を示すことができる。
関連論文リスト
- Web-Scale Visual Entity Recognition: An LLM-Driven Data Approach [56.55633052479446]
Webスケールのビジュアルエンティティ認識は、クリーンで大規模なトレーニングデータがないため、重大な課題を呈している。
本稿では,ラベル検証,メタデータ生成,合理性説明に多モーダル大言語モデル(LLM)を活用することによって,そのようなデータセットをキュレートする新しい手法を提案する。
実験により、この自動キュレートされたデータに基づいてトレーニングされたモデルは、Webスケールの視覚的エンティティ認識タスクで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-10-31T06:55:24Z) - PUB: Plot Understanding Benchmark and Dataset for Evaluating Large Language Models on Synthetic Visual Data Interpretation [2.1184929769291294]
本稿では,データ視覚化における大規模言語モデルの習熟度を評価するために設計された,新しい合成データセットを提案する。
我々のデータセットは、制御されたパラメータを使って生成され、潜在的な現実世界シナリオの包括的カバレッジが保証されます。
我々は、画像中の視覚データに関連する質問を多モーダルテキストプロンプトを用いて、いくつかの最先端モデルをベンチマークする。
論文 参考訳(メタデータ) (2024-09-04T11:19:17Z) - Data Formulator 2: Iteratively Creating Rich Visualizations with AI [65.48447317310442]
これらの課題に対処するためのLCMを利用した可視化システムであるData Formulator 2を提案する。
Data Formulator 2では、ユーザはUIと自然言語をブレンドして視覚化の意図を記述し、データ変換はAIに委譲される。
イテレーションをサポートするため、Data Formulator 2では、ユーザがイテレーション履歴をナビゲートし、以前の設計を新しい設計に再利用することで、毎回スクラッチから始める必要がない。
論文 参考訳(メタデータ) (2024-08-28T20:12:17Z) - BEHAVIOR Vision Suite: Customizable Dataset Generation via Simulation [57.40024206484446]
我々は、コンピュータビジョンモデルの体系的評価のために、完全にカスタマイズされた合成データを生成するためのツールと資産のセットであるBEHAVIOR Vision Suite(BVS)を紹介する。
BVSはシーンレベルで多数の調整可能なパラメータをサポートする。
アプリケーションシナリオを3つ紹介する。
論文 参考訳(メタデータ) (2024-05-15T17:57:56Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - Accountable Textual-Visual Chat Learns to Reject Human Instructions in
Image Re-creation [26.933683814025475]
合成CLEVR-ATVCデータセット(620K)と手動図形Fruit-ATVCデータセット(50K)の2つの新しいマルチモーダルデータセットを紹介した。
これらのデータセットには、ビジュアルとテキストベースの入力と出力の両方が含まれている。
言語ベースのChatGPT会話と同様に、人間の要求を拒否する際のマルチモーダルシステムの説明責任を容易にするため、データセット内の監視信号として特定のルールを導入する。
論文 参考訳(メタデータ) (2023-03-10T15:35:11Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - Shuffler: A Large Scale Data Management Tool for ML in Computer Vision [0.0]
我々は,大規模なコンピュータビジョンデータセットの管理を容易にするオープンソースツールであるshufflerを提案する。
Shuffler氏は、コンピュータビジョンに適用された教師あり学習に一般的に役立つアノテーションによる40以上のデータ処理操作を定義している。
論文 参考訳(メタデータ) (2021-04-11T22:27:28Z) - Visual Distant Supervision for Scene Graph Generation [66.10579690929623]
シーングラフモデルは通常、大量のラベル付きデータを人間のアノテーションで教師付き学習する必要がある。
本研究では,人間ラベルデータを用いずにシーングラフモデルを訓練できる視覚関係学習の新しいパラダイムである視覚遠方監視を提案する。
包括的な実験結果から、我々の遠隔監視モデルは、弱い監督と半監督のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-03-29T06:35:24Z) - Advancing Visual Specification of Code Requirements for Graphs [0.0]
本稿では,機械学習を用いた有意義なデータの可視化に焦点をあてる。
我々は、人文科学研究者が視覚化のプログラム方法を学ぶための障壁を低くするために、ユーザが視覚的にコード要件を指定できるようにします。
ニューラルネットワークと光学文字認識を組み合わせたハイブリッドモデルを用いて、コードを生成して視覚化する。
論文 参考訳(メタデータ) (2020-07-29T17:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。