論文の概要: A Comparison of Spatiotemporal Visualizations for 3D Urban Analytics
- arxiv url: http://arxiv.org/abs/2208.05370v1
- Date: Wed, 10 Aug 2022 14:38:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 10:30:31.397487
- Title: A Comparison of Spatiotemporal Visualizations for 3D Urban Analytics
- Title(参考訳): 3次元都市分析のための時空間可視化の比較
- Authors: Roberta Mota, Nivan Ferreira, Julio Daniel Silva, Marius Horga, Marcos
Lage, Luis Ceferino, Usman Alim, Ehud Sharlin, Fabio Miranda
- Abstract要約: 本稿では,建物表面の時間的解析を支援するために,3次元都市視覚分析がいかに有効かを検討する。
本研究では,3次元都市データの可視化に使用される4つの代表的な視覚的デザイン,空間的並置,時間的並置,連結ビュー,組込みビューを比較した。
その結果、参加者はプロットベースでより精度が高いが、カラーコードでより高速に可視化できることがわかった。
- 参考スコア(独自算出の注目度): 7.157706457130007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent technological innovations have led to an increase in the availability
of 3D urban data, such as shadow, noise, solar potential, and earthquake
simulations. These spatiotemporal datasets create opportunities for new
visualizations to engage experts from different domains to study the dynamic
behavior of urban spaces in this under explored dimension. However, designing
3D spatiotemporal urban visualizations is challenging, as it requires visual
strategies to support analysis of time-varying data referent to the city
geometry. Although different visual strategies have been used in 3D urban
visual analytics, the question of how effective these visual designs are at
supporting spatiotemporal analysis on building surfaces remains open. To
investigate this, in this paper we first contribute a series of analytical
tasks elicited after interviews with practitioners from three urban domains. We
also contribute a quantitative user study comparing the effectiveness of four
representative visual designs used to visualize 3D spatiotemporal urban data:
spatial juxtaposition, temporal juxtaposition, linked view, and embedded view.
Participants performed a series of tasks that required them to identify extreme
values on building surfaces over time. Tasks varied in granularity for both
space and time dimensions. Our results demonstrate that participants were more
accurate using plot-based visualizations (linked view, embedded view) but
faster using color-coded visualizations (spatial juxtaposition, temporal
juxtaposition). Our results also show that, with increasing task complexity,
plot-based visualizations perform better in preserving efficiency (time,
accuracy) compared to color-coded visualizations. Based on our findings, we
present a set of takeaways with design recommendations for 3D spatiotemporal
urban visualizations for researchers and practitioners.
- Abstract(参考訳): 近年の技術革新により、影、騒音、太陽ポテンシャル、地震シミュレーションなどの3次元都市データの可用性が向上している。
これらの時空間データセットは、異なる領域のエキスパートが調査対象の都市空間の動的挙動を研究するために、新たな可視化を行う機会を生み出す。
しかし,3次元空間的都市ビジュアライゼーションの設計は,都市形状に関する時間変化データの解析を支援するために視覚的な戦略を必要とするため,難しい課題である。
3次元都市視覚分析では異なる視覚戦略が用いられてきたが、建物表面の時空間分析にこれらの視覚設計がどの程度効果的かという疑問はいまだに残されている。
そこで本稿では,まず3つの地域から実践者へのインタビューを行った結果,分析課題を提示する。
また,空間的ジャクサポレーション,時間的ジャクサポレーション,リンクビュー,組込みビューという,3次元時空間都市データの可視化に使用される4つの視覚的デザインの有効性を定量的に比較した。
参加者は一連のタスクを行い、時間とともに建物表面の極端な値を特定する必要があった。
タスクは空間と時間の両方で粒度が変化した。
その結果, 参加者はプロットに基づく可視化(リンクビュー, 組込みビュー)でより精度が高く, カラーコードによる可視化(空間ジャクサレーション, 時間ジャクサレーション)ではより高速であった。
また,タスクの複雑さが増大するにつれて,プロットに基づく可視化は,色付き視覚化に比べて効率(時間,精度)が向上することを示した。
本研究は, 研究者や実践者を対象に, 3次元時空間都市可視化のための設計レコメンデーションを提示する。
関連論文リスト
- Efficient Depth-Guided Urban View Synthesis [52.841803876653465]
高速フィードフォワード推論とシーンごとのファインチューニングのための効率的な深層誘導型都市ビュー合成(EDUS)を提案する。
EDUSは、粗い入力画像から一般化可能な都市ビュー合成を可能にするためのガイダンスとして、ノイズの多い幾何学的先行情報を利用する。
その結果,EDUSは高速なテスト時間最適化と組み合わせることで,スパース・ビュー・セッティングにおける最先端性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-07-17T08:16:25Z) - The State of the Art in Visual Analytics for 3D Urban Data [5.056350278679641]
都市化は都市環境における3次元構造の重要性を増幅した。
3次元都市データの普及に伴い、都市環境の特徴に合わせた視覚分析技術の開発に多くの研究が注がれている。
3次元をビジュアル分析に組み込むことで、都市データの多様な複雑さに対処する効果的なビジュアルツールを設計する上で、新たな課題がもたらされる。
論文 参考訳(メタデータ) (2024-04-24T16:50:42Z) - HUGS: Holistic Urban 3D Scene Understanding via Gaussian Splatting [53.6394928681237]
RGB画像に基づく都市景観の全体的理解は、難しいが重要な問題である。
我々の主な考え方は、静的な3Dガウスと動的なガウスの組合せを用いた幾何学、外観、意味論、運動の合同最適化である。
提案手法は,2次元および3次元のセマンティック情報を高精度に生成し,新たな視点をリアルタイムに描画する機能を提供する。
論文 参考訳(メタデータ) (2024-03-19T13:39:05Z) - RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z) - Unified Data Management and Comprehensive Performance Evaluation for
Urban Spatial-Temporal Prediction [Experiment, Analysis & Benchmark] [78.05103666987655]
この研究は、多様な都市空間時間データセットにアクセスし活用する際の課題に対処する。
都市空間・時空間のビッグデータ用に設計された統合ストレージフォーマットであるアトミックファイルを導入し,40種類の多様なデータセットでその有効性を検証する。
多様なモデルとデータセットを使用して広範な実験を行い、パフォーマンスリーダーボードを確立し、有望な研究方向性を特定する。
論文 参考訳(メタデータ) (2023-08-24T16:20:00Z) - The Urban Toolkit: A Grammar-based Framework for Urban Visual Analytics [5.674216760436341]
都市問題の複雑な性質と利用可能なデータの圧倒的な量は、これらの取り組みを実用的な洞察に翻訳する上で大きな課題を提起している。
興味のある特徴を分析する際、都市の専門家は、異なるテーマ(例えば、日光アクセス、人口統計)と物理的(例えば、建物、ストリートネットワーク)のデータ層を変換し、統合し、視覚化しなければならない。
これにより、プログラマにとって視覚的なデータ探索とシステム実装が難しくなり、コンピュータ科学以外の都市の専門家にとって高い入り口障壁となる。
論文 参考訳(メタデータ) (2023-08-15T13:43:04Z) - DeepVisualInsight: Time-Travelling Visualization for Spatio-Temporal
Causality of Deep Classification Training [7.4940788786485095]
本稿では,深層学習画像の学習中に因果性を示すことを目的とした,時間旅行型ビジュアルソリューションDeepVisualInsightを提案する。
本研究では,学習した入力表現のレイアウトと,連続したエポックにおける境界にどのような影響を及ぼすかを示す。
実験により, ベースライン手法と比較して, 空間的・時間的特性と可視化効率について, 最高の可視化性能が得られることを示した。
論文 参考訳(メタデータ) (2021-12-31T07:05:31Z) - Spatio-temporal Self-Supervised Representation Learning for 3D Point
Clouds [96.9027094562957]
ラベルのないタスクから学習できる時間的表現学習フレームワークを導入する。
幼児が野生の視覚的データからどのように学ぶかに触発され、3Dデータから派生した豊かな手がかりを探索する。
STRLは3Dポイントクラウドシーケンスから2つの時間的関連フレームを入力として、空間データ拡張で変換し、不変表現を自己指導的に学習する。
論文 参考訳(メタデータ) (2021-09-01T04:17:11Z) - Self-supervised Video Representation Learning by Uncovering
Spatio-temporal Statistics [74.6968179473212]
本稿では,自己指導型学習問題に対処する新しい前提課題を提案する。
最大運動の空間的位置や支配的な方向など,分割的・時間的統計的な要約を連続して計算する。
ビデオフレームを入力として与えられた統計的要約を得るために、ニューラルネットワークを構築して訓練する。
論文 参考訳(メタデータ) (2020-08-31T08:31:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。