論文の概要: Semantic Zoom and Mini-Maps for Software Cities
- arxiv url: http://arxiv.org/abs/2510.00003v1
- Date: Tue, 26 Aug 2025 12:49:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.036279
- Title: Semantic Zoom and Mini-Maps for Software Cities
- Title(参考訳): ソフトウェアシティのためのセマンティックズームとミニマップ
- Authors: Malte Hansen, Jens Bamberg, Noe Baumann, Wilhelm Hasselbring,
- Abstract要約: 本稿では,3次元ソフトウェア都市における視覚的スケーラビリティの課題に対処する2つのアプローチを提案する。
まず、仮想カメラと視覚オブジェクトの距離に基づいて、ソフトウェアランドスケープのグラフィカルな表現が変化するセマンティックズームのアプローチを提案する。
第2に、ミニマップと呼ばれる2次元の2次元トップビュープロジェクションで可視化を強化する。
- 参考スコア(独自算出の注目度): 0.6999740786886536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Software visualization tools can facilitate program comprehension by providing visual metaphors, or abstractions that reduce the amount of textual data that needs to be processed mentally. One way they do this is by enabling developers to build an internal representation of the visualized software and its architecture. However, as the amount of displayed data in the visualization increases, the visualization itself can become more difficult to comprehend. The ability to display small and large amounts of data in visualizations is called visual scalability. In this paper, we present two approaches to address the challenge of visual scalability in 3D software cities. First, we present an approach to semantic zoom, in which the graphical representation of the software landscape changes based on the virtual camera's distance from visual objects. Second, we augment the visualization with a miniature two-dimensional top-view projection called mini-map. We demonstrate our approach using an open-source implementation in our software visualization tool ExplorViz. ExplorViz is web-based and uses the 3D city metaphor, focusing on live trace visualization. We evaluated our approaches in two separate user studies. The results indicate that semantic zoom and the mini-map are both useful additions. User feedback indicates that semantic zoom and mini-maps are especially useful for large software landscapes and collaborative software exploration. The studies indicate a good usability of our implemented approaches. However, some shortcomings in our implementations have also been discovered, to be addressed in future work. Video URL: https://youtu.be/LYtUeWvizjU
- Abstract(参考訳): ソフトウェアビジュアライゼーションツールは、視覚的なメタファーや、精神的に処理する必要があるテキストデータの量を減らす抽象化を提供することによって、プログラムの理解を促進することができる。
開発者が視覚化されたソフトウェアとそのアーキテクチャの内部表現を構築することができる。
しかし, 可視化における表示データの量が増加するにつれて, 可視化自体の理解が困難になる。
視覚化において、少量で大量のデータを表示できる能力は、ビジュアルスケーラビリティと呼ばれる。
本稿では,3次元ソフトウェア都市における視覚的スケーラビリティの課題に対処する2つのアプローチを提案する。
まず、仮想カメラと視覚オブジェクトの距離に基づいて、ソフトウェアランドスケープのグラフィカルな表現が変化するセマンティックズームのアプローチを提案する。
第2に、ミニマップと呼ばれる2次元の2次元トップビュープロジェクションで可視化を強化する。
ソフトウェアビジュアライゼーションツールExploreVizのオープンソース実装によるアプローチを実演する。
ExplorVizはWebベースで、3Dシティのメタファーを使い、ライブトレースの視覚化に重点を置いている。
アプローチを2つの異なるユーザスタディで評価した。
その結果,セマンティックズームとミニマップはどちらも有用であることがわかった。
ユーザからのフィードバックは、セマンティックズームとミニマップが特に大きなソフトウェアランドスケープと協調的なソフトウェア探索に有用であることを示している。
これらの研究は、実装されたアプローチの優れたユーザビリティを示している。
しかし、今後の作業で対処するために、実装のいくつかの欠点も発見されました。
ビデオURL:https://youtu.be/LYtUeWvizjU
関連論文リスト
- Latent Sketchpad: Sketching Visual Thoughts to Elicit Multimodal Reasoning in MLLMs [80.2089647067782]
マルチモーダルな大規模言語モデルと内部の視覚的スクラッチパッドを備えたフレームワークであるLatent Sketchpadを紹介した。
人間は、視覚的思考の形でスケッチを使ってアイデアを開発、伝達する方法に触発され、Latent Sketchpadを紹介します。
新しいデータセットMazePlanningでフレームワークを評価する。
論文 参考訳(メタデータ) (2025-10-28T15:26:20Z) - Visual Jigsaw Post-Training Improves MLLMs [58.29961336087896]
大規模言語モデル(MLLM)における視覚的理解を強化するために設計された,汎用的な自己教師型ポストトレーニングフレームワークであるVisual Jigsawを紹介する。
視覚的な入力は分割され、シャッフルされ、モデルは自然言語で正しい置換を生成することで視覚情報を再構築する必要がある。
広範囲な実験により、微粒な知覚、時間的推論、空間的理解が大幅に改善された。
論文 参考訳(メタデータ) (2025-09-29T17:59:57Z) - HTML Structure Exploration in 3D Software Cities [1.1470070927586018]
本稿では、Webベースのライブトレースソフトウェア可視化ツールExploreVizの追加について紹介する。
対象のアプリケーションとのインタラクションを容易にするために、3Dビジュアライゼーションで計測されたアプリケーションに組み込みのWebビューを追加します。
ドキュメントオブジェクトモデル(DOM)は、同一のコンテキストにおけるHTML構造の3次元表現を通じて視覚化される。
論文 参考訳(メタデータ) (2025-08-26T12:52:09Z) - Do we Really Need Visual Instructions? Towards Visual Instruction-Free Fine-tuning for Large Vision-Language Models [127.38740043393527]
LVLMのための視覚的命令なし微調整フレームワークであるViFTを提案する。
我々は、タスク解決能力と視覚知覚能力を個別に学習するために、トレーニング中にテキストのみの指示と画像キャプションデータのみを必要とする。
実験結果から,VFTはいくつかの視覚的推論と,それに続く視覚的指示に対して,最先端の性能を達成できることが示された。
論文 参考訳(メタデータ) (2025-02-17T04:38:12Z) - Visualizing Extensions of Argumentation Frameworks as Layered Graphs [15.793271603711014]
AFを3層グラフレイアウトとして拡張とともに描画する新しい可視化手法を提案する。
我々の技術は、ユーザがより簡単に可視化されたAFを探索し、拡張をよりよく理解し、セマンティクスを計算するためのアルゴリズムを検証するのを支援する。
論文 参考訳(メタデータ) (2024-09-09T09:29:53Z) - A Software Visualization Approach for Multiple Visual Output Devices [0.24466725954625887]
本稿では,複数のディスプレイやプロジェクタを用いて,既存のアプローチのギャップを埋めるソフトウェア都市によるソフトウェアビジュアライゼーションの新たなアプローチを提案する。
当社のWebベースのライブトレース可視化ツールであるExploreVizは、複数のブラウザインスタンス間で視覚化を同期するサービスで拡張されています。
予備的な研究は、この環境がソフトウェア都市を共同で探究するのに有用であることを示唆している。
論文 参考訳(メタデータ) (2024-09-04T11:27:47Z) - Visualizing Routes with AI-Discovered Street-View Patterns [4.153397474276339]
本稿では,視覚的特徴の定量化にセマンティック潜在ベクトルを用いる手法を提案する。
街路ビュー画像の集合間の画像類似度を計算し,空間像パターンの探索を行う。
インタラクティブな可視化プロトタイプであるVivaRoutesを紹介し、これらのパターンで視覚化がどのように活用され、ユーザーが複数のルートを効果的かつインタラクティブに探索するのに役立つかを示す。
論文 参考訳(メタデータ) (2024-03-30T17:32:26Z) - GeoVLN: Learning Geometry-Enhanced Visual Representation with Slot
Attention for Vision-and-Language Navigation [52.65506307440127]
我々は,ロバストなビジュアル・アンド・ランゲージナビゲーションのためのスロットアテンションに基づく幾何学的視覚表現を学習するGeoVLNを提案する。
我々はV&L BERTを用いて言語情報と視覚情報の両方を組み込んだクロスモーダル表現を学習する。
論文 参考訳(メタデータ) (2023-05-26T17:15:22Z) - Efficient Pipelines for Vision-Based Context Sensing [0.24366811507669117]
世界中の視界源が出現しており、カメラは道路、社内、モバイルプラットフォームに設置できる。
しかし、ビジョンデータ収集と分析は今でも非常に手作業で行われている。
今日の視覚ベースのコンテキストセンシングシステムには3つの大きな課題がある。
論文 参考訳(メタデータ) (2020-11-01T05:09:13Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z) - Single-View View Synthesis with Multiplane Images [64.46556656209769]
深層学習を応用して、既知の視点で2つ以上の入力画像が与えられた多面体画像を生成する。
本手法は,単一画像入力から直接多面体画像を予測することを学習する。
さらに、適切な深度マップを生成し、背景層の前景オブジェクトのエッジの背後にあるコンテンツを埋める。
論文 参考訳(メタデータ) (2020-04-23T17:59:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。