論文の概要: A Picture for the Words! Textual Visualization in Big Data Analytics
- arxiv url: http://arxiv.org/abs/2005.07849v1
- Date: Sat, 16 May 2020 02:53:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-20 01:17:07.086012
- Title: A Picture for the Words! Textual Visualization in Big Data Analytics
- Title(参考訳): 言葉の絵だ!
ビッグデータ分析におけるテキスト可視化
- Authors: Cherilyn Conner, Jim Samuel, Andrey Kretinin, Yana Samuel and Lee
Nadeau
- Abstract要約: テキスト情報を用いたデータ可視化のための分析フレームワークの必要性を明らかにする。
テキストデータの可視化を一意に行うための説明的分類フレームワークを構築した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data Visualization has become an important aspect of big data analytics and
has grown in sophistication and variety. We specifically identify the need for
an analytical framework for data visualization with textual information. Data
visualization is a powerful mechanism to represent data, but the usage of
specific graphical representations needs to be better understood and classified
to validate appropriate representation in the contexts of textual data and
avoid distorted depictions of underlying textual data. We identify prominent
textual data visualization approaches and discuss their characteristics. We
discuss the use of multiple graph types in textual data visualization,
including the use of quantity, sense, trend and context textual data
visualization. We create an explanatory classification framework to position
textual data visualization in a unique way so as to provide insights and assist
in appropriate method or graphical representation classification.
- Abstract(参考訳): データビジュアライゼーションはビッグデータ分析の重要な側面となり、高度化と多様性で成長してきた。
テキスト情報を用いたデータ可視化のための分析フレームワークの必要性を具体的に識別する。
データビジュアライゼーションは、データを表現するための強力なメカニズムであるが、テキストデータのコンテキストにおける適切な表現を検証するために、特定のグラフィカル表現の使用をよりよく理解し、分類する必要がある。
著名なテキストデータ可視化手法を特定し,その特徴について考察する。
本稿では,数量,感覚,傾向,文脈テキストデータ可視化など,テキストデータ可視化における複数のグラフ型の利用について論じる。
我々は,テキストデータの可視化をユニークな方法で位置決めし,適切な方法や表現の分類を支援する説明的分類フレームワークを構築した。
関連論文リスト
- Augmenting a Large Language Model with a Combination of Text and Visual Data for Conversational Visualization of Global Geospatial Data [51.57559025799189]
本稿では,Large Language Model (LLM) をテキストと視覚データの組み合わせで拡張する手法を提案する。
可視化とデータセットのテキスト記述と視覚化のスナップショットを組み合わせることでこの問題に対処する。
論文 参考訳(メタデータ) (2025-01-16T13:16:37Z) - "Show Me What's Wrong!": Combining Charts and Text to Guide Data Analysis [4.016592757754338]
金融詐欺検出の文脈では、アナリストは取引データの中で不審な活動を素早く特定する必要がある。
これは、パターンの認識、グループ化、比較といった複雑な探索的なタスクからなる反復的なプロセスである。
これらのステップに固有の情報の過負荷を軽減するため、自動化された情報ハイライト、大規模言語モデルが生成するテキストインサイト、視覚分析を組み合わせたツールを提案する。
論文 参考訳(メタデータ) (2024-10-01T14:16:10Z) - Network visualization techniques for story charting [0.0]
本稿では,ポルトガル語の議論を呼んでいるテキストを,グラフ可視化技術を用いて分析する手法を提案する。
私たちは、テキストをグラフに変換するストーリーチャート技術を使用します。
また、ストーリーの構造、キャラクター間の関係、最も重要な出来事、そして本の中で重要な用語がどのように使われているかを理解するための可視化技術をいくつか紹介する。
論文 参考訳(メタデータ) (2024-06-20T21:00:07Z) - Bridging Local Details and Global Context in Text-Attributed Graphs [62.522550655068336]
GraphBridgeは、コンテキストテキスト情報を活用することで、ローカルおよびグローバルな視点をブリッジするフレームワークである。
提案手法は最先端性能を実現し,グラフ対応トークン削減モジュールは効率を大幅に向上し,スケーラビリティの問題を解消する。
論文 参考訳(メタデータ) (2024-06-18T13:35:25Z) - Language Guided Domain Generalized Medical Image Segmentation [68.93124785575739]
単一ソースドメインの一般化は、より信頼性が高く一貫性のあるイメージセグメンテーションを現実の臨床環境にわたって約束する。
本稿では,テキストエンコーダ機能によって案内されるコントラスト学習機構を組み込むことで,テキスト情報を明確に活用する手法を提案する。
文献における既存手法に対して,本手法は良好な性能を発揮する。
論文 参考訳(メタデータ) (2024-04-01T17:48:15Z) - ConTextual: Evaluating Context-Sensitive Text-Rich Visual Reasoning in Large Multimodal Models [92.60282074937305]
テキストリッチな画像に対して文脈に敏感な推論を必要とする人為的な命令を特徴とする新しいデータセットであるConTextualを紹介した。
そこで本研究では,14の基盤モデルの性能評価実験を行い,人為的な性能基準を確立する。
GPT-4Vとヒトのパフォーマンスの30.8%の有意な性能差を観察した。
論文 参考訳(メタデータ) (2024-01-24T09:07:11Z) - Visual Analytics for Efficient Image Exploration and User-Guided Image
Captioning [35.47078178526536]
事前訓練された大規模言語画像モデルの最近の進歩は、視覚的理解の新しい時代を後押ししている。
本稿では,視覚分析の領域でよく知られた2つの問題に取り組み,(1)大規模画像データセットの効率的な探索と潜在的なデータバイアスの同定,(2)画像キャプションの評価と生成過程のステアリングを行う。
論文 参考訳(メタデータ) (2023-11-02T06:21:35Z) - VisText: A Benchmark for Semantically Rich Chart Captioning [12.117737635879037]
VisTextは、チャートの構成を記述した12,441組のチャートとキャプションのデータセットである。
我々のモデルはコヒーレントで意味的に豊かなキャプションを生成し、最先端のチャートキャプションモデルと同等に機能する。
論文 参考訳(メタデータ) (2023-06-28T15:16:24Z) - Holistic Visual-Textual Sentiment Analysis with Prior Models [64.48229009396186]
本稿では,頑健な視覚・テキスト感情分析を実現するための総合的手法を提案する。
提案手法は,(1)感情分析のためのデータから特徴を直接学習する視覚テキストブランチ,(2)選択された意味的特徴を抽出する事前学習された「専門家」エンコーダを備えた視覚専門家ブランチ,(3)暗黙的に視覚テキスト対応をモデル化するCLIPブランチ,(4)多モード特徴を融合して感情予測を行うBERTに基づくマルチモーダル特徴融合ネットワークの4つの部分から構成される。
論文 参考訳(メタデータ) (2022-11-23T14:40:51Z) - Multi-Modal Reasoning Graph for Scene-Text Based Fine-Grained Image
Classification and Retrieval [8.317191999275536]
本稿では,視覚的・テキスト的手がかりの形でマルチモーダルコンテンツを活用することで,微細な画像分類と検索の課題に取り組むことに焦点を当てる。
画像中の有意なオブジェクトとテキスト間の共通意味空間を学習することにより、マルチモーダル推論を行い、関係強化された特徴を得るためにグラフ畳み込みネットワークを用いる。
論文 参考訳(メタデータ) (2020-09-21T12:31:42Z) - Probing Contextual Language Models for Common Ground with Visual
Representations [76.05769268286038]
我々は、マッチングと非マッチングの視覚表現を区別する上で、テキストのみの表現がいかに効果的かを評価するための探索モデルを設計する。
以上の結果から,言語表現だけでは,適切な対象カテゴリから画像パッチを検索する強力な信号が得られることがわかった。
視覚的に接地された言語モデルは、例えば検索においてテキストのみの言語モデルよりわずかに優れているが、人間よりもはるかに低い。
論文 参考訳(メタデータ) (2020-05-01T21:28:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。