論文の概要: A Comparison of Spatiotemporal Visualizations for 3D Urban Analytics
- arxiv url: http://arxiv.org/abs/2208.05370v1
- Date: Wed, 10 Aug 2022 14:38:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 10:30:31.397487
- Title: A Comparison of Spatiotemporal Visualizations for 3D Urban Analytics
- Title(参考訳): 3次元都市分析のための時空間可視化の比較
- Authors: Roberta Mota, Nivan Ferreira, Julio Daniel Silva, Marius Horga, Marcos
Lage, Luis Ceferino, Usman Alim, Ehud Sharlin, Fabio Miranda
- Abstract要約: 本稿では,建物表面の時間的解析を支援するために,3次元都市視覚分析がいかに有効かを検討する。
本研究では,3次元都市データの可視化に使用される4つの代表的な視覚的デザイン,空間的並置,時間的並置,連結ビュー,組込みビューを比較した。
その結果、参加者はプロットベースでより精度が高いが、カラーコードでより高速に可視化できることがわかった。
- 参考スコア(独自算出の注目度): 7.157706457130007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent technological innovations have led to an increase in the availability
of 3D urban data, such as shadow, noise, solar potential, and earthquake
simulations. These spatiotemporal datasets create opportunities for new
visualizations to engage experts from different domains to study the dynamic
behavior of urban spaces in this under explored dimension. However, designing
3D spatiotemporal urban visualizations is challenging, as it requires visual
strategies to support analysis of time-varying data referent to the city
geometry. Although different visual strategies have been used in 3D urban
visual analytics, the question of how effective these visual designs are at
supporting spatiotemporal analysis on building surfaces remains open. To
investigate this, in this paper we first contribute a series of analytical
tasks elicited after interviews with practitioners from three urban domains. We
also contribute a quantitative user study comparing the effectiveness of four
representative visual designs used to visualize 3D spatiotemporal urban data:
spatial juxtaposition, temporal juxtaposition, linked view, and embedded view.
Participants performed a series of tasks that required them to identify extreme
values on building surfaces over time. Tasks varied in granularity for both
space and time dimensions. Our results demonstrate that participants were more
accurate using plot-based visualizations (linked view, embedded view) but
faster using color-coded visualizations (spatial juxtaposition, temporal
juxtaposition). Our results also show that, with increasing task complexity,
plot-based visualizations perform better in preserving efficiency (time,
accuracy) compared to color-coded visualizations. Based on our findings, we
present a set of takeaways with design recommendations for 3D spatiotemporal
urban visualizations for researchers and practitioners.
- Abstract(参考訳): 近年の技術革新により、影、騒音、太陽ポテンシャル、地震シミュレーションなどの3次元都市データの可用性が向上している。
これらの時空間データセットは、異なる領域のエキスパートが調査対象の都市空間の動的挙動を研究するために、新たな可視化を行う機会を生み出す。
しかし,3次元空間的都市ビジュアライゼーションの設計は,都市形状に関する時間変化データの解析を支援するために視覚的な戦略を必要とするため,難しい課題である。
3次元都市視覚分析では異なる視覚戦略が用いられてきたが、建物表面の時空間分析にこれらの視覚設計がどの程度効果的かという疑問はいまだに残されている。
そこで本稿では,まず3つの地域から実践者へのインタビューを行った結果,分析課題を提示する。
また,空間的ジャクサポレーション,時間的ジャクサポレーション,リンクビュー,組込みビューという,3次元時空間都市データの可視化に使用される4つの視覚的デザインの有効性を定量的に比較した。
参加者は一連のタスクを行い、時間とともに建物表面の極端な値を特定する必要があった。
タスクは空間と時間の両方で粒度が変化した。
その結果, 参加者はプロットに基づく可視化(リンクビュー, 組込みビュー)でより精度が高く, カラーコードによる可視化(空間ジャクサレーション, 時間ジャクサレーション)ではより高速であった。
また,タスクの複雑さが増大するにつれて,プロットに基づく可視化は,色付き視覚化に比べて効率(時間,精度)が向上することを示した。
本研究は, 研究者や実践者を対象に, 3次元時空間都市可視化のための設計レコメンデーションを提示する。
関連論文リスト
- S2TPVFormer: Spatio-Temporal Tri-Perspective View for temporally
coherent 3D Semantic Occupancy Prediction [0.0]
既存のアプローチは主に空間的手がかりに焦点を当てており、しばしば時間的手がかりを見下ろしている。
本研究では,Tri-Perspective View (TPV)表現の拡張であるS2TPVFormerを紹介する。
我々の研究は、特に3Dシーンの知覚において、時間的手がかりの探索の少ない領域を探索する。
論文 参考訳(メタデータ) (2024-01-24T20:06:59Z) - RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z) - Unified Data Management and Comprehensive Performance Evaluation for
Urban Spatial-Temporal Prediction [Experiment, Analysis & Benchmark] [78.05103666987655]
この研究は、多様な都市空間時間データセットにアクセスし活用する際の課題に対処する。
都市空間・時空間のビッグデータ用に設計された統合ストレージフォーマットであるアトミックファイルを導入し,40種類の多様なデータセットでその有効性を検証する。
多様なモデルとデータセットを使用して広範な実験を行い、パフォーマンスリーダーボードを確立し、有望な研究方向性を特定する。
論文 参考訳(メタデータ) (2023-08-24T16:20:00Z) - The Urban Toolkit: A Grammar-based Framework for Urban Visual Analytics [5.674216760436341]
都市問題の複雑な性質と利用可能なデータの圧倒的な量は、これらの取り組みを実用的な洞察に翻訳する上で大きな課題を提起している。
興味のある特徴を分析する際、都市の専門家は、異なるテーマ(例えば、日光アクセス、人口統計)と物理的(例えば、建物、ストリートネットワーク)のデータ層を変換し、統合し、視覚化しなければならない。
これにより、プログラマにとって視覚的なデータ探索とシステム実装が難しくなり、コンピュータ科学以外の都市の専門家にとって高い入り口障壁となる。
論文 参考訳(メタデータ) (2023-08-15T13:43:04Z) - 3D-IntPhys: Towards More Generalized 3D-grounded Visual Intuitive
Physics under Challenging Scenes [68.66237114509264]
複雑なシーンと流体の映像から3次元的な視覚的直感的な物理モデルを学習できるフレームワークを提案する。
本モデルでは,生画像から学習し,明示的な3次元表現空間を用いないモデルよりもはるかに優れた将来予測が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-22T19:28:49Z) - DeepVisualInsight: Time-Travelling Visualization for Spatio-Temporal
Causality of Deep Classification Training [7.4940788786485095]
本稿では,深層学習画像の学習中に因果性を示すことを目的とした,時間旅行型ビジュアルソリューションDeepVisualInsightを提案する。
本研究では,学習した入力表現のレイアウトと,連続したエポックにおける境界にどのような影響を及ぼすかを示す。
実験により, ベースライン手法と比較して, 空間的・時間的特性と可視化効率について, 最高の可視化性能が得られることを示した。
論文 参考訳(メタデータ) (2021-12-31T07:05:31Z) - Spatio-temporal Self-Supervised Representation Learning for 3D Point
Clouds [96.9027094562957]
ラベルのないタスクから学習できる時間的表現学習フレームワークを導入する。
幼児が野生の視覚的データからどのように学ぶかに触発され、3Dデータから派生した豊かな手がかりを探索する。
STRLは3Dポイントクラウドシーケンスから2つの時間的関連フレームを入力として、空間データ拡張で変換し、不変表現を自己指導的に学習する。
論文 参考訳(メタデータ) (2021-09-01T04:17:11Z) - Self-supervised Video Representation Learning by Uncovering
Spatio-temporal Statistics [74.6968179473212]
本稿では,自己指導型学習問題に対処する新しい前提課題を提案する。
最大運動の空間的位置や支配的な方向など,分割的・時間的統計的な要約を連続して計算する。
ビデオフレームを入力として与えられた統計的要約を得るために、ニューラルネットワークを構築して訓練する。
論文 参考訳(メタデータ) (2020-08-31T08:31:56Z) - Spatiotemporal Attacks for Embodied Agents [119.43832001301041]
我々は、エンボディエージェントに対する敵攻撃を研究するための第一歩を踏み出した。
特に,時間次元と空間次元の両方の相互作用履歴を利用する逆例を生成する。
我々の摂動は強力な攻撃力と一般化能力を持っている。
論文 参考訳(メタデータ) (2020-05-19T01:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。