論文の概要: P6: A Declarative Language for Integrating Machine Learning in Visual
Analytics
- arxiv url: http://arxiv.org/abs/2009.01399v1
- Date: Thu, 3 Sep 2020 00:58:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 08:17:27.741666
- Title: P6: A Declarative Language for Integrating Machine Learning in Visual
Analytics
- Title(参考訳): P6: Visual Analyticsで機械学習を統合する宣言型言語
- Authors: Jianping Kelvin Li and Kwan-Liu Ma
- Abstract要約: 本稿では,高性能なビジュアル分析システムを構築するための宣言型言語であるP6を紹介する。
ビジュアル分析のための宣言型言語を提供することで、より多くの開発者が機械学習と視覚化メソッドを組み合わせたアプリケーションを開発することができる。
- 参考スコア(独自算出の注目度): 30.8693417274166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present P6, a declarative language for building high performance visual
analytics systems through its support for specifying and integrating machine
learning and interactive visualization methods. As data analysis methods based
on machine learning and artificial intelligence continue to advance, a visual
analytics solution can leverage these methods for better exploiting large and
complex data. However, integrating machine learning methods with interactive
visual analysis is challenging. Existing declarative programming libraries and
toolkits for visualization lack support for coupling machine learning methods.
By providing a declarative language for visual analytics, P6 can empower more
developers to create visual analytics applications that combine machine
learning and visualization methods for data analysis and problem solving.
Through a variety of example applications, we demonstrate P6's capabilities and
show the benefits of using declarative specifications to build visual analytics
systems. We also identify and discuss the research opportunities and challenges
for declarative visual analytics.
- Abstract(参考訳): 本稿では、機械学習とインタラクティブな視覚化手法の特定と統合をサポートすることにより、高性能なビジュアル分析システムを構築するための宣言型言語p6を提案する。
機械学習と人工知能に基づくデータ分析手法が進歩を続ける中、視覚分析ソリューションはこれらの手法を利用して、大規模で複雑なデータをうまく活用することができる。
しかし,インタラクティブなビジュアル解析と機械学習手法の統合は困難である。
既存の宣言型プログラミングライブラリと視覚化用のツールキットには、結合機械学習メソッドのサポートがない。
ビジュアル分析のための宣言型言語を提供することで、P6はより多くの開発者が、データ分析と問題解決のための機械学習と視覚化メソッドを組み合わせたビジュアル分析アプリケーションを作成することができる。
様々なサンプルアプリケーションを通じて、p6の機能を実証し、宣言的仕様を使ってビジュアル分析システムを構築する利点を示す。
また、宣言的視覚分析研究の機会と課題を特定し、議論する。
関連論文リスト
- Towards Interpreting Visual Information Processing in Vision-Language Models [24.51408101801313]
VLM(Vision-Language Models)は、テキストや画像の処理と理解のための強力なツールである。
著名なVLMであるLLaVAの言語モデルコンポーネントにおける視覚トークンの処理について検討する。
論文 参考訳(メタデータ) (2024-10-09T17:55:02Z) - Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - VAAD: Visual Attention Analysis Dashboard applied to e-Learning [12.849976246445646]
このツールはVAADと呼ばれ、Visual Attention Analysis Dashboardの頭字語である。
VAADは、記述的視点と予測的視点の両方から、オンライン学習行動に関する貴重な洞察を提供する可能性を秘めている。
論文 参考訳(メタデータ) (2024-05-30T14:27:40Z) - LVLM-Interpret: An Interpretability Tool for Large Vision-Language Models [50.259006481656094]
本稿では,大規模視覚言語モデルの内部メカニズムの理解を目的とした対話型アプリケーションを提案する。
このインタフェースは, 画像パッチの解釈可能性を高めるために設計されており, 応答の生成に有効である。
本稿では,一般的な大規模マルチモーダルモデルであるLLaVAにおける障害機構の理解に,アプリケーションがどのように役立つかのケーススタディを示す。
論文 参考訳(メタデータ) (2024-04-03T23:57:34Z) - SINC: Self-Supervised In-Context Learning for Vision-Language Tasks [64.44336003123102]
大規模言語モデルにおけるコンテキスト内学習を実現するためのフレームワークを提案する。
メタモデルは、カスタマイズされたデモからなる自己教師型プロンプトで学ぶことができる。
実験の結果、SINCは様々な視覚言語タスクにおいて勾配に基づく手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-15T08:33:08Z) - GPT4Graph: Can Large Language Models Understand Graph Structured Data ?
An Empirical Evaluation and Benchmarking [17.7473474499538]
ChatGPTのような大規模言語モデルは、人工知能にとって欠かせないものとなっている。
本研究では,グラフデータの解釈において,LLMの精度を評価するための調査を行う。
この知見は,言語モデルとグラフ理解のギャップを埋めるための貴重な洞察に寄与する。
論文 参考訳(メタデータ) (2023-05-24T11:53:19Z) - Demonstration of InsightPilot: An LLM-Empowered Automated Data
Exploration System [48.62158108517576]
本稿では,データ探索プロセスの簡略化を目的とした自動データ探索システムであるInsightPilotを紹介する。
InsightPilotは、理解、要約、説明などの適切な分析意図を自動的に選択する。
簡単に言うと、IQueryはデータ分析操作の抽象化と自動化であり、データアナリストのアプローチを模倣しています。
論文 参考訳(メタデータ) (2023-04-02T07:27:49Z) - Holistic Visual-Textual Sentiment Analysis with Prior Models [64.48229009396186]
本稿では,頑健な視覚・テキスト感情分析を実現するための総合的手法を提案する。
提案手法は,(1)感情分析のためのデータから特徴を直接学習する視覚テキストブランチ,(2)選択された意味的特徴を抽出する事前学習された「専門家」エンコーダを備えた視覚専門家ブランチ,(3)暗黙的に視覚テキスト対応をモデル化するCLIPブランチ,(4)多モード特徴を融合して感情予測を行うBERTに基づくマルチモーダル特徴融合ネットワークの4つの部分から構成される。
論文 参考訳(メタデータ) (2022-11-23T14:40:51Z) - SOCIOFILLMORE: A Tool for Discovering Perspectives [10.189255026322996]
SOCIOFILLMOREは、テキストがイベントを描写する際に表現する視点をフォアに導くのに役立つツールである。
我々のツールは、人間の判断を大量に集めることで、理論的にはフレームのセマンティクスと認知言語学に基礎を置いています。
論文 参考訳(メタデータ) (2022-03-07T14:42:22Z) - Visualization Techniques to Enhance Automated Event Extraction [0.0]
このケーススタディでは,NLPを用いたニュース記事から,国家主導による大量殺人の潜在的な引き金を探究する。
可視化は、生データの探索分析から機械学習トレーニング分析、最後に推論後の検証に至るまで、各段階でどのように役立つかを実証する。
論文 参考訳(メタデータ) (2021-06-11T19:24:54Z) - Object Relational Graph with Teacher-Recommended Learning for Video
Captioning [92.48299156867664]
本稿では,新しいモデルと効果的なトレーニング戦略の両方を含む完全なビデオキャプションシステムを提案する。
具体的には,オブジェクトリレーショナルグラフ(ORG)に基づくエンコーダを提案する。
一方,教師推薦学習(TRL)手法を設計し,成功した外部言語モデル(ELM)をフル活用し,豊富な言語知識をキャプションモデルに統合する。
論文 参考訳(メタデータ) (2020-02-26T15:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。