論文の概要: A Picture for the Words! Textual Visualization in Big Data Analytics
- arxiv url: http://arxiv.org/abs/2005.07849v1
- Date: Sat, 16 May 2020 02:53:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-20 01:17:07.086012
- Title: A Picture for the Words! Textual Visualization in Big Data Analytics
- Title(参考訳): 言葉の絵だ!
ビッグデータ分析におけるテキスト可視化
- Authors: Cherilyn Conner, Jim Samuel, Andrey Kretinin, Yana Samuel and Lee
Nadeau
- Abstract要約: テキスト情報を用いたデータ可視化のための分析フレームワークの必要性を明らかにする。
テキストデータの可視化を一意に行うための説明的分類フレームワークを構築した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data Visualization has become an important aspect of big data analytics and
has grown in sophistication and variety. We specifically identify the need for
an analytical framework for data visualization with textual information. Data
visualization is a powerful mechanism to represent data, but the usage of
specific graphical representations needs to be better understood and classified
to validate appropriate representation in the contexts of textual data and
avoid distorted depictions of underlying textual data. We identify prominent
textual data visualization approaches and discuss their characteristics. We
discuss the use of multiple graph types in textual data visualization,
including the use of quantity, sense, trend and context textual data
visualization. We create an explanatory classification framework to position
textual data visualization in a unique way so as to provide insights and assist
in appropriate method or graphical representation classification.
- Abstract(参考訳): データビジュアライゼーションはビッグデータ分析の重要な側面となり、高度化と多様性で成長してきた。
テキスト情報を用いたデータ可視化のための分析フレームワークの必要性を具体的に識別する。
データビジュアライゼーションは、データを表現するための強力なメカニズムであるが、テキストデータのコンテキストにおける適切な表現を検証するために、特定のグラフィカル表現の使用をよりよく理解し、分類する必要がある。
著名なテキストデータ可視化手法を特定し,その特徴について考察する。
本稿では,数量,感覚,傾向,文脈テキストデータ可視化など,テキストデータ可視化における複数のグラフ型の利用について論じる。
我々は,テキストデータの可視化をユニークな方法で位置決めし,適切な方法や表現の分類を支援する説明的分類フレームワークを構築した。
関連論文リスト
- Visual Analytics for Efficient Image Exploration and User-Guided Image
Captioning [35.47078178526536]
事前訓練された大規模言語画像モデルの最近の進歩は、視覚的理解の新しい時代を後押ししている。
本稿では,視覚分析の領域でよく知られた2つの問題に取り組み,(1)大規模画像データセットの効率的な探索と潜在的なデータバイアスの同定,(2)画像キャプションの評価と生成過程のステアリングを行う。
論文 参考訳(メタデータ) (2023-11-02T06:21:35Z) - Text-Only Training for Visual Storytelling [107.19873669536523]
視覚条件付きストーリー生成問題として視覚的ストーリーテリングを定式化する。
本稿では,モダリティ間のアライメントとストーリー生成の学習を分離するテキストのみのトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-17T09:32:17Z) - VisText: A Benchmark for Semantically Rich Chart Captioning [12.117737635879037]
VisTextは、チャートの構成を記述した12,441組のチャートとキャプションのデータセットである。
我々のモデルはコヒーレントで意味的に豊かなキャプションを生成し、最先端のチャートキャプションモデルと同等に機能する。
論文 参考訳(メタデータ) (2023-06-28T15:16:24Z) - Coarse-to-Fine Contrastive Learning in Image-Text-Graph Space for
Improved Vision-Language Compositionality [50.48859793121308]
対照的に訓練された視覚言語モデルは、視覚と言語表現学習において顕著な進歩を遂げた。
近年の研究では、対象、属性、関係性に対して構成的推論を行う能力に厳しい制限が強調されている。
論文 参考訳(メタデータ) (2023-05-23T08:28:38Z) - Let the Chart Spark: Embedding Semantic Context into Chart with
Text-to-Image Generative Model [7.587729429265939]
画像視覚化は、データとセマンティックコンテキストを視覚表現にシームレスに統合する。
本稿では,テキストから画像への生成モデルに基づく意味コンテキストをグラフに組み込む新しいシステムであるChartSparkを提案する。
本研究では,テキストアナライザ,編集モジュール,評価モジュールを統合したインタラクティブなビジュアルインタフェースを開発し,画像視覚化の生成,修正,評価を行う。
論文 参考訳(メタデータ) (2023-04-28T05:18:30Z) - Improving Visual-textual Sentiment Analysis by Fusing Expert Features [72.06263228104709]
本稿では,強力な専門家による視覚的特徴を導入することにより,視覚的・テキスト的感情分析を改善する手法を提案する。
提案手法は,(1)感情分析のためのデータから直接特徴を学習する視覚テキストブランチ,(2)事前学習した「エキスパート」エンコーダのセットを持つ視覚専門家ブランチ,(3)視覚テキスト特徴を暗黙的に融合して感情予測を行うCLIPブランチの4つの部分から構成される。
論文 参考訳(メタデータ) (2022-11-23T14:40:51Z) - From Two to One: A New Scene Text Recognizer with Visual Language
Modeling Network [70.47504933083218]
本稿では,視覚情報と言語情報を結合として見る視覚言語モデリングネットワーク(VisionLAN)を提案する。
VisionLANは39%のスピード向上を実現し、正確な認識のための視覚的特徴を高めるために言語情報を適応的に検討する。
論文 参考訳(メタデータ) (2021-08-22T07:56:24Z) - Visualization Techniques to Enhance Automated Event Extraction [0.0]
このケーススタディでは,NLPを用いたニュース記事から,国家主導による大量殺人の潜在的な引き金を探究する。
可視化は、生データの探索分析から機械学習トレーニング分析、最後に推論後の検証に至るまで、各段階でどのように役立つかを実証する。
論文 参考訳(メタデータ) (2021-06-11T19:24:54Z) - Multi-Modal Reasoning Graph for Scene-Text Based Fine-Grained Image
Classification and Retrieval [8.317191999275536]
本稿では,視覚的・テキスト的手がかりの形でマルチモーダルコンテンツを活用することで,微細な画像分類と検索の課題に取り組むことに焦点を当てる。
画像中の有意なオブジェクトとテキスト間の共通意味空間を学習することにより、マルチモーダル推論を行い、関係強化された特徴を得るためにグラフ畳み込みネットワークを用いる。
論文 参考訳(メタデータ) (2020-09-21T12:31:42Z) - Improving Image Captioning with Better Use of Captions [65.39641077768488]
本稿では,画像表現とキャプション生成の両方を強化するために,キャプションで利用可能なセマンティクスをよりよく探求するための新しい画像キャプションアーキテクチャを提案する。
我々のモデルはまず,弱教師付きマルチインスタンス学習を用いて,有益な帰納バイアスをもたらすキャプション誘導型視覚関係グラフを構築した。
生成期間中、このモデルは、単語とオブジェクト/述語タグのシーケンスを共同で予測するために、マルチタスク学習を用いた視覚関係をさらに取り入れる。
論文 参考訳(メタデータ) (2020-06-21T14:10:47Z) - Probing Contextual Language Models for Common Ground with Visual
Representations [76.05769268286038]
我々は、マッチングと非マッチングの視覚表現を区別する上で、テキストのみの表現がいかに効果的かを評価するための探索モデルを設計する。
以上の結果から,言語表現だけでは,適切な対象カテゴリから画像パッチを検索する強力な信号が得られることがわかった。
視覚的に接地された言語モデルは、例えば検索においてテキストのみの言語モデルよりわずかに優れているが、人間よりもはるかに低い。
論文 参考訳(メタデータ) (2020-05-01T21:28:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。