論文の概要: The Human-Data-Model Interaction Canvas for Visual Analytics
- arxiv url: http://arxiv.org/abs/2505.07534v1
- Date: Mon, 12 May 2025 13:15:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.391584
- Title: The Human-Data-Model Interaction Canvas for Visual Analytics
- Title(参考訳): ビジュアル分析のための人間-データ-モデル相互作用キャンバス
- Authors: Jürgen Bernard,
- Abstract要約: このポジションは16のVisual Analytics(VA)プロセスモデルとフレームワークを評価し、反映している。
9つの高いレベルの観測を行い、VAの新たな見方を動機付けている。
このコントリビューションはHDMI Canvasであり、既存のVAプロセスモデルとフレームワークの強みを補完する視点である。
- 参考スコア(独自算出の注目度): 3.3589836144022196
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Visual Analytics (VA) integrates humans, data, and models as key actors in insight generation and data-driven decision-making. This position paper values and reflects on 16 VA process models and frameworks and makes nine high-level observations that motivate a fresh perspective on VA. The contribution is the HDMI Canvas, a perspective to VA that complements the strengths of existing VA process models and frameworks. It systematically characterizes diverse roles of humans, data, and models, and how these actors benefit from and contribute to VA processes. The descriptive power of the HDMI Canvas eases the differentiation between a series of VA building blocks, rather than describing general VA principles only. The canvas includes modern human-centered methodologies, including human knowledge externalization and forms of feedback loops, while interpretable and explainable AI highlight model contributions beyond their conventional outputs. The HDMI Canvas has generative power, guiding the design of new VA processes and is optimized for external stakeholders, improving VA outreach, interdisciplinary collaboration, and user-centered design. The utility of the HDMI Canvas is demonstrated through two preliminary case studies.
- Abstract(参考訳): Visual Analytics(VA)は、インサイト生成とデータ駆動意思決定において、人間、データ、モデルを重要なアクターとして統合する。
この位置紙は、16のVAプロセスモデルとフレームワークを評価し、VAに対する新たな視点を動機付ける9つのハイレベルな観察を行う。
このコントリビューションは、既存のVAプロセスモデルとフレームワークの強みを補完するVAの視点であるHDMI Canvasである。
人間、データ、モデルの様々な役割を体系的に特徴づけ、これらのアクターがVAプロセスの恩恵を受け、どのように貢献するかを特徴付ける。
HDMI Canvasの記述力は、一般的なVA原則のみを記述するのではなく、一連のVAビルディングブロックの区別を容易にする。
キャンバスには、人間の知識の外部化やフィードバックループの形式を含む、現代の人間中心の方法論が含まれており、解釈可能で説明可能なAIは、従来のアウトプットを超えたモデル貢献を強調している。
HDMI Canvasは生成能力を持ち、新しいVAプロセスの設計を指導し、外部の利害関係者に最適化され、VAのアウトリーチの改善、学際的なコラボレーション、ユーザー中心の設計を実現している。
HDMI Canvasの実用性は2つの予備的ケーススタディを通して実証される。
関連論文リスト
- VARGPT: Unified Understanding and Generation in a Visual Autoregressive Multimodal Large Language Model [38.61292051733335]
VARGPTは,単一の自己回帰フレームワーク内で視覚的理解と生成を統一する,新しいマルチモーダル大規模言語モデルである。
VarGPTは視覚理解のための次世代予測パラダイムと、視覚自己回帰生成のための次世代予測パラダイムを採用している。
特に、VARGPTは自己回帰的視覚生成と命令-画像合成の能力を自然にサポートし、視覚的理解と生成の両タスクにおいてその汎用性を示す。
論文 参考訳(メタデータ) (2025-01-21T17:50:43Z) - VLFeedback: A Large-Scale AI Feedback Dataset for Large Vision-Language Models Alignment [55.7956150385255]
本稿では,視覚言語モデルの整合性向上のためのAIフィードバックの有効性について検討する。
最初の大規模視覚言語フィードバックデータセットであるVLFeedbackを紹介する。
我々は、VLFeedback上で直接選好最適化によって微調整されたLVLMであるSilkieを訓練する。
論文 参考訳(メタデータ) (2024-10-12T07:56:47Z) - VHELM: A Holistic Evaluation of Vision Language Models [75.88987277686914]
視覚言語モデル(VHELM)の全体的評価について述べる。
VHELMは、視覚的知覚、知識、推論、バイアス、公平性、多言語性、堅牢性、毒性、安全性の9つの側面の1つ以上をカバーするために、さまざまなデータセットを集約する。
私たちのフレームワークは軽量で自動で、評価の実行が安価で高速に行えるように設計されています。
論文 参考訳(メタデータ) (2024-10-09T17:46:34Z) - iGAiVA: Integrated Generative AI and Visual Analytics in a Machine Learning Workflow for Text Classification [2.0094862015890245]
視覚分析(VA)を用いて,大規模言語モデルを用いた合成データの生成を誘導する手法を提案する。
本稿では,データ不足の種別について論じ,その識別を支援するVA技術について述べるとともに,対象データ合成の有効性を実証する。
論文 参考訳(メタデータ) (2024-09-24T08:19:45Z) - Human-inspired Explanations for Vision Transformers and Convolutional Neural Networks [8.659674736978555]
本稿では,Deep Neural Networks のための新しいヒューマンインスパイアされた視覚的説明可能性 (XAI) 手法である Foveation-based Explanations (FovEx) を紹介する。
提案手法は変圧器(5つの指標のうち4つ)と畳み込みモデルの両方で最先端の性能を達成し,その汎用性を実証する。
論文 参考訳(メタデータ) (2024-08-04T19:37:30Z) - Silkie: Preference Distillation for Large Visual Language Models [56.10697821410489]
本稿では,大型視覚言語モデル(LVLM)の嗜好蒸留について検討する。
まず,AIアノテーションを用いた視覚言語フィードバックデータセットを構築した。
我々は, GPT-4V を用いて, 有用性, 視覚的忠実性, 倫理的考察のアウトプットを評価する。
結果として得られたモデルSilkieは、認知能力と認知能力に関するMMEベンチマークで6.9%と9.5%の相対的な改善を達成している。
論文 参考訳(メタデータ) (2023-12-17T09:44:27Z) - PANet: Perspective-Aware Network with Dynamic Receptive Fields and
Self-Distilling Supervision for Crowd Counting [63.84828478688975]
本稿では,視点問題に対処するため,PANetと呼ばれる新しい視点認識手法を提案する。
対象物のサイズが視点効果によって1つの画像で大きく変化するという観測に基づいて,動的受容場(DRF)フレームワークを提案する。
このフレームワークは、入力画像に応じて拡張畳み込みパラメータによって受容野を調整することができ、モデルが各局所領域についてより識別的な特徴を抽出するのに役立つ。
論文 参考訳(メタデータ) (2021-10-31T04:43:05Z) - A survey on Variational Autoencoders from a GreenAI perspective [0.0]
変分オートエンコーダ(VAE)は、統計や情報理論の要素と深層ニューラルネットワークが提供する柔軟性を融合する強力な生成モデルである。
この記事では、最も成功し、最近のVAEのバリエーションについて比較評価する。
論文 参考訳(メタデータ) (2021-03-01T15:26:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。