論文の概要: Advancing Visual Specification of Code Requirements for Graphs
- arxiv url: http://arxiv.org/abs/2007.14958v1
- Date: Wed, 29 Jul 2020 17:01:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 20:08:56.882108
- Title: Advancing Visual Specification of Code Requirements for Graphs
- Title(参考訳): グラフのコード要求の視覚的な仕様化
- Authors: Dewi Yokelson
- Abstract要約: 本稿では,機械学習を用いた有意義なデータの可視化に焦点をあてる。
我々は、人文科学研究者が視覚化のプログラム方法を学ぶための障壁を低くするために、ユーザが視覚的にコード要件を指定できるようにします。
ニューラルネットワークと光学文字認識を組み合わせたハイブリッドモデルを用いて、コードを生成して視覚化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Researchers in the humanities are among the many who are now exploring the
world of big data. They have begun to use programming languages like Python or
R and their corresponding libraries to manipulate large data sets and discover
brand new insights. One of the major hurdles that still exists is incorporating
visualizations of this data into their projects. Visualization libraries can be
difficult to learn how to use, even for those with formal training. Yet these
visualizations are crucial for recognizing themes and communicating results to
not only other researchers, but also the general public. This paper focuses on
producing meaningful visualizations of data using machine learning. We allow
the user to visually specify their code requirements in order to lower the
barrier for humanities researchers to learn how to program visualizations. We
use a hybrid model, combining a neural network and optical character
recognition to generate the code to create the visualization.
- Abstract(参考訳): 人文科学の研究者たちは現在、ビッグデータの世界を探索している。
彼らは、pythonやrなどのプログラミング言語と対応するライブラリを使用して、大きなデータセットを操作し、まったく新しい洞察を見つけ始めている。
現存する大きなハードルのひとつは、これらのデータの視覚化をプロジェクトに取り込むことだ。
フォーマルなトレーニングを受けた人たちでさえ、ビジュアライゼーションライブラリの使い方を学ぶのは難しいでしょう。
しかしこれらの視覚化は、他の研究者だけでなく一般大衆にもテーマを認識し、結果を伝達するためにも不可欠である。
本稿では,機械学習を用いた有意義なデータの可視化に焦点をあてる。
ユーザーがコード要件を視覚的に指定することで、人文科学研究者が視覚化をプログラムする方法を学ぶための障壁を低くすることができる。
ニューラルネットワークと光学キャラクタ認識を組み合わせたハイブリッドモデルを用いて,可視化のためのコードを生成する。
関連論文リスト
- Data Formulator 2: Iteratively Creating Rich Visualizations with AI [65.48447317310442]
これらの課題に対処するためのLCMを利用した可視化システムであるData Formulator 2を提案する。
Data Formulator 2では、ユーザはUIと自然言語をブレンドして視覚化の意図を記述し、データ変換はAIに委譲される。
イテレーションをサポートするため、Data Formulator 2では、ユーザがイテレーション履歴をナビゲートし、以前の設計を新しい設計に再利用することで、毎回スクラッチから始める必要がない。
論文 参考訳(メタデータ) (2024-08-28T20:12:17Z) - EndToEndML: An Open-Source End-to-End Pipeline for Machine Learning Applications [0.2826977330147589]
機械学習モデルの事前処理、トレーニング、評価、可視化が可能なWebベースのエンドツーエンドパイプラインを提案する。
本ライブラリは,マルチモーダル・マルチセンサ・データセットの認識,分類,クラスタリング,および予測を支援する。
論文 参考訳(メタデータ) (2024-03-27T02:24:38Z) - Ask and You Shall Receive (a Graph Drawing): Testing ChatGPT's Potential
to Apply Graph Layout Algorithms [12.328414568667037]
大規模言語モデル(LLM)は、最近、嵐によって世界を席巻した。
LLMの膨大なデータから学習し、複雑な操作を適用する能力は、興味深いグラフ描画結果をもたらす可能性がある。
自然言語の仕様により、より広い範囲のユーザにとって、データの視覚化がよりアクセスしやすく、ユーザフレンドリになる。
論文 参考訳(メタデータ) (2023-03-03T04:26:43Z) - Using Large Language Models to Generate Engaging Captions for Data
Visualizations [51.98253121636079]
大規模言語モデル(LLM)は、高度なディープラーニング技術を用いて人間のような散文を生成する。
主な課題は、プロンプトエンジニアリングと呼ばれるLLMの最も効果的なプロンプトを設計することである。
我々は,LLM GPT-3を用いた最初の実験について報告し,いくつかの有望な結果を得た。
論文 参考訳(メタデータ) (2022-12-27T23:56:57Z) - Brief Introduction to Contrastive Learning Pretext Tasks for Visual
Representation [0.0]
教師なし学習手法のサブセットであるコントラスト学習を導入する。
対照的な学習の目的は、互いに近くにある同じサンプルから強化されたサンプルを埋め込んで、そうでないサンプルを押し下げることである。
我々は、最近公開されたコントラスト学習の戦略をいくつか提示し、視覚表現のためのプレテキストタスクに焦点を当てている。
論文 参考訳(メタデータ) (2022-10-06T18:54:10Z) - A large scale multi-view RGBD visual affordance learning dataset [4.3773754388936625]
大規模マルチビューRGBDビジュアルアプライアンス学習データセットを提案する。
これは、初めてかつ最大のマルチビューRGBDビジュアルアプライアンス学習データセットである。
いくつかの最先端のディープラーニングネットワークを,それぞれが可視性認識とセグメンテーションタスクのために評価する。
論文 参考訳(メタデータ) (2022-03-26T14:31:35Z) - Can machines learn to see without visual databases? [93.73109506642112]
本稿では,視覚的データベースを扱わずに視界を学習するマシンの開発に焦点をあてる。
これは、ビジョンのためのディープラーニング技術に関する真に競争の激しい道を開くかもしれない。
論文 参考訳(メタデータ) (2021-10-12T13:03:54Z) - REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter [52.117388513480435]
本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
論文 参考訳(メタデータ) (2021-04-29T05:31:21Z) - Visual Distant Supervision for Scene Graph Generation [66.10579690929623]
シーングラフモデルは通常、大量のラベル付きデータを人間のアノテーションで教師付き学習する必要がある。
本研究では,人間ラベルデータを用いずにシーングラフモデルを訓練できる視覚関係学習の新しいパラダイムである視覚遠方監視を提案する。
包括的な実験結果から、我々の遠隔監視モデルは、弱い監督と半監督のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-03-29T06:35:24Z) - Graph Self-Supervised Learning: A Survey [73.86209411547183]
SSL(Self-supervised Learning)は、グラフデータの有望でトレンドの学習パラダイムとなっています。
グラフデータにSSL技術を用いた既存のアプローチをタイムリーかつ包括的にレビューします。
論文 参考訳(メタデータ) (2021-02-27T03:04:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。