論文の概要: Intelligent Canvas: Enabling Design-Like Exploratory Visual Data
Analysis with Generative AI through Rapid Prototyping, Iteration and Curation
- arxiv url: http://arxiv.org/abs/2402.08812v2
- Date: Fri, 16 Feb 2024 18:04:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 18:41:45.726367
- Title: Intelligent Canvas: Enabling Design-Like Exploratory Visual Data
Analysis with Generative AI through Rapid Prototyping, Iteration and Curation
- Title(参考訳): Intelligent Canvas: 高速プロトタイピング、イテレーション、キュレーションによるジェネレーティブAIによるデザインライクな探索的ビジュアルデータ分析の実現
- Authors: Zijian Ding, Joel Chan
- Abstract要約: 我々は、生成AIをデータ分析に組み込んだ「デザインライクな」インテリジェントキャンバス環境を導入する。
私たちの2つのコントリビューションには、生成可能なAIコンポーネントをキャンバスインターフェースに統合することや、ユーザスタディからの経験的な発見が含まれています。
- 参考スコア(独自算出の注目度): 5.620580107652292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Complex data analysis inherently seeks unexpected insights through
exploratory \re{visual analysis} methods, transcending logical, step-by-step
processing. However, \re{existing interfaces such as notebooks and dashboards
have limitations in exploration and comparison for visual data analysis}.
Addressing these limitations, we introduce a "design-like" intelligent canvas
environment integrating generative AI into data analysis, offering rapid
prototyping, iteration, and comparative visualization management. Our dual
contributions include the integration of generative AI components into a canvas
interface, and empirical findings from a user study (N=10) evaluating the
effectiveness of the canvas interface.
- Abstract(参考訳): 複雑なデータ分析は、本質的には、探索的 \re{visual analysis} 法による予期せぬ洞察を求め、論理的、段階的に処理する。
しかし、ノートやダッシュボードのような既存のインターフェイスは、ビジュアルデータ分析のための探索と比較に制限がある。
これらの制限に対処するために,生成aiをデータ分析に統合した"デザインライクな"インテリジェントキャンバス環境を導入し,迅速なプロトタイピング,イテレーション,比較可視化管理を提供する。
この2つのコントリビューションには、生成AIコンポーネントをキャンバスインターフェースに統合することや、キャンバスインターフェースの有効性を評価するユーザスタディ(N=10)による経験的発見が含まれている。
関連論文リスト
- generAItor: Tree-in-the-Loop Text Generation for Language Model
Explainability and Adaptation [28.715001906405362]
大規模言語モデル(LLM)は、自動補完、補助的な書き込み、チャットベースのテキスト生成など、様々な下流タスクに広くデプロイされている。
本稿では,ビーム探索ツリーの視覚的表現を解析,説明,適応する中心的な要素とする,ループ内ツリーのアプローチを提案することで,この欠点に対処する。
視覚解析技術であるGenerAItorを,タスク固有のウィジェットで中央ビーム探索木を拡大し,ターゲットとした可視化とインタラクションの可能性を提供する。
論文 参考訳(メタデータ) (2024-03-12T13:09:15Z) - LangXAI: Integrating Large Vision Models for Generating Textual
Explanations to Enhance Explainability in Visual Perception Tasks [2.5966310291726007]
LangXAIは、説明可能な人工知能(XAI)と高度な視覚モデルを統合して、視覚認識タスクの説明を生成するフレームワークである。
LangXAIはこれを、分類、オブジェクト検出、セマンティックセグメンテーションモデルの出力をエンドユーザーに提供することによって解決する。
予備的な結果は、タスク間でBERTScoreの高いLangXAIの強化された可視性を示している。
論文 参考訳(メタデータ) (2024-02-19T20:36:32Z) - SeeBel: Seeing is Believing [0.9790236766474201]
本稿では,全画像のセグメンテーションにおけるデータセット統計とAI性能を比較するための3つの可視化手法を提案する。
我々のプロジェクトは、画像の注意重みを可視化することで、セグメンテーションのための訓練されたAIモデルの解釈可能性をさらに高めようとしている。
我々は,コンピュータビジョンとAI領域における可視化ツールの有効性を検討するために,実際のユーザを対象に調査を行うことを提案する。
論文 参考訳(メタデータ) (2023-12-18T05:11:00Z) - Benchmarking and Analyzing Generative Data for Visual Recognition [66.55174903469722]
この研究は生成的画像の影響を深く掘り下げ、主に外部データを利用するパラダイムを比較する。
我々は、2548のカテゴリを持つ22のデータセットからなるベンチマークである textbfGenBench を考案し、様々な視覚的認識タスクにまたがる生成データを評価した。
我々の徹底的なベンチマークと分析は、将来の調査における重要な課題を特定しながら、視覚認識における生成データの約束をスポットライトで示している。
論文 参考訳(メタデータ) (2023-07-25T17:59:59Z) - Let the Chart Spark: Embedding Semantic Context into Chart with
Text-to-Image Generative Model [7.587729429265939]
画像視覚化は、データとセマンティックコンテキストを視覚表現にシームレスに統合する。
本稿では,テキストから画像への生成モデルに基づく意味コンテキストをグラフに組み込む新しいシステムであるChartSparkを提案する。
本研究では,テキストアナライザ,編集モジュール,評価モジュールを統合したインタラクティブなビジュアルインタフェースを開発し,画像視覚化の生成,修正,評価を行う。
論文 参考訳(メタデータ) (2023-04-28T05:18:30Z) - RLIP: Relational Language-Image Pre-training for Human-Object
Interaction Detection [32.20132357830726]
言語画像事前学習(Language- Image Pre-Training、LIPR)は、エンティティと関係記述の両方を活用するコントラスト事前学習の戦略である。
RLIP-ParSeと呼ばれるこれらのコントリビューションの利点は、ゼロショット、少数ショット、微調整のHOI検出の改善、およびノイズアノテーションからの堅牢性の向上である。
論文 参考訳(メタデータ) (2022-09-05T07:50:54Z) - Software Vulnerability Detection via Deep Learning over Disaggregated
Code Graph Representation [57.92972327649165]
この研究は、コードコーパスから安全でないパターンを自動的に学習するためのディープラーニングアプローチを探求する。
コードには解析を伴うグラフ構造が自然に認められるため,プログラムの意味的文脈と構造的規則性の両方を利用する新しいグラフニューラルネットワーク(GNN)を開発する。
論文 参考訳(メタデータ) (2021-09-07T21:24:36Z) - Synbols: Probing Learning Algorithms with Synthetic Datasets [112.45883250213272]
Synbolsは、低解像度画像にレンダリングされた潜在機能のリッチな構成で、新しいデータセットを高速に生成するツールである。
ツールの高レベルインターフェースは、潜在機能で新しいディストリビューションを高速に生成するための言語を提供する。
Synbolsの汎用性を示すために,各種学習環境における標準学習アルゴリズムの限界と欠陥を識別するために,本手法を用いる。
論文 参考訳(メタデータ) (2020-09-14T13:03:27Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z) - A Graph-based Interactive Reasoning for Human-Object Interaction
Detection [71.50535113279551]
本稿では,HOIを推論するインタラクティブグラフ(Interactive Graph, in-Graph)という,グラフに基づくインタラクティブ推論モデルを提案する。
In-GraphNet と呼ばれる HOI を検出するための新しいフレームワークを構築した。
私たちのフレームワークはエンドツーエンドのトレーニングが可能で、人間のポーズのような高価なアノテーションはありません。
論文 参考訳(メタデータ) (2020-07-14T09:29:03Z) - Weakly Supervised Visual Semantic Parsing [49.69377653925448]
SGG(Scene Graph Generation)は、画像からエンティティ、述語、それらの意味構造を抽出することを目的としている。
既存のSGGメソッドでは、トレーニングのために何百万もの手動アノテーション付きバウンディングボックスが必要である。
本稿では,ビジュアルセマンティック・パーシング,VSPNet,グラフベースの弱教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-08T03:46:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。