論文の概要: Animating Petascale Time-varying Data on Commodity Hardware with LLM-assisted Scripting
- arxiv url: http://arxiv.org/abs/2603.07053v1
- Date: Sat, 07 Mar 2026 06:19:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:13.70884
- Title: Animating Petascale Time-varying Data on Commodity Hardware with LLM-assisted Scripting
- Title(参考訳): LLMスクリプティングによる商品ハードウェアのペタスケール時間変化データのアニメーション
- Authors: Ishrat Jahan Eliza, Xuan Huang, Aashish Panta, Alper Sahistan, Zhimin Li, Amy A. Gooch, Valerio Pascucci,
- Abstract要約: 本稿では,コモディティワークステーション上でペタスケールで時間変化のある3Dアニメーションを作成するための,ユーザフレンドリーなフレームワークを提案する。
1PBを超える大規模なNASAの気候海洋観測データセットを使用していますが、1分から2時間という高速なターンアラウンドタイムを実現しています。
- 参考スコア(独自算出の注目度): 15.399245400064126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scientists face significant visualization challenges as time-varying datasets grow in speed and volume, often requiring specialized infrastructure and expertise to handle massive datasets. Petascale climate models generated in NASA laboratories require a dedicated group of graphics and media experts and access to high-performance computing resources. Scientists may need to share scientific results with the community iteratively and quickly. However, the time-consuming trial-and-error process incurs significant data transfer overhead and far exceeds the time and resources allocated for typical post-analysis visualization tasks, disrupting the production workflow. Our paper introduces a user-friendly framework for creating 3D animations of petascale, time-varying data on a commodity workstation. Our contributions: (i) Generalized Animation Descriptor (GAD) with a keyframe-based adaptable abstraction for animation, (ii) efficient data access from cloud-hosted repositories to reduce data management overhead, (iii) tailored rendering system, and (iv) an LLM-assisted conversational interface as a scripting module to allow domain scientists with no visualization expertise to create animations of their region of interest. We demonstrate the framework's effectiveness with two case studies: first, by generating animations in which sampling criteria are specified based on prior knowledge, and second, by generating AI-assisted animations in which sampling parameters are derived from natural-language user prompts. In all cases, we use large-scale NASA climate-oceanographic datasets that exceed 1PB in size yet achieve a fast turnaround time of 1 minute to 2 hours. Users can generate a rough draft of the animation within minutes, then seamlessly incorporate as much high-resolution data as needed for the final version.
- Abstract(参考訳): 科学者は、時間変化データセットがスピードとボリュームを増すにつれて、大きなデータセットを扱うための特別なインフラストラクチャと専門知識を必要とするため、大きな可視化課題に直面します。
NASAの研究所で生成されたペタスケール気候モデルは、グラフィックとメディアの専門家の専用のグループと高性能コンピューティングリソースへのアクセスを必要とする。
科学者は、科学的結果をコミュニティと反復的かつ迅速に共有する必要があるかもしれない。
しかし、時間を要する試行錯誤プロセスはデータ転送のオーバーヘッドが大きくなり、典型的な分析後の視覚化タスクに割り当てられた時間やリソースをはるかに超え、プロダクションワークフローを混乱させます。
本稿では,コモディティワークステーション上でペタスケールで時間変化のある3Dアニメーションを作成するための,ユーザフレンドリーなフレームワークを提案する。
コントリビューション:
(i) 汎用アニメーション記述子(GAD) キーフレームをベースとしたアニメーションの適応可能な抽象化。
(ii) クラウドにホストされたリポジトリからの効率的なデータアクセスにより、データ管理のオーバーヘッドを低減する。
(三)調整レンダリングシステム、及び
(iv)スクリプトモジュールとしてのLLM支援対話インタフェースにより、視覚化の専門知識を持たないドメイン科学者が興味のある領域のアニメーションを作成することができる。
まず、事前知識に基づいてサンプリング基準を指定したアニメーションを生成し、次に、自然言語のユーザプロンプトからサンプリングパラメータを抽出したAI支援アニメーションを生成する。
いずれの場合も、1PBを超える大規模なNASAの気候海洋観測データセットを使用しますが、1分から2時間という高速なターンアラウンドタイムを実現しています。
ユーザーは数分で大まかなアニメーションのドラフトを生成し、最終バージョンに必要な高解像度データをシームレスに組み込むことができる。
関連論文リスト
- Strefer: Empowering Video LLMs with Space-Time Referring and Reasoning via Synthetic Instruction Data [100.5266292850922]
Streferはビデオ大モデルに参照と推論機能を持たせるために設計された合成データ生成フレームワークである。
Streferは、時間的に密度が高くきめ細かなビデオメタデータを擬似アノテーションするデータエンジンを使用して、多様な命令生成データを生成する。
我々のアプローチは、ビデオLLMが空間的および時間的参照を解釈する能力を高め、現実のAIコンパニオンに不可欠な、より汎用的で時空間対応の推論を育む。
論文 参考訳(メタデータ) (2025-09-03T17:33:20Z) - LLM4DyG: Can Large Language Models Solve Spatial-Temporal Problems on Dynamic Graphs? [56.85995048874959]
本稿では,大規模言語モデルの動的グラフ上での時空間理解能力を評価することを提案する。
我々は、異なるデータ生成装置、データ統計、プロンプト技術、LLMがモデル性能に与える影響を分析する実験を行う。
最後に, LLM の時空間理解能力を高めるために, 動的グラフ上の LLM に対する Disentangled Spatial-Temporal Thoughts (DST2) を提案する。
論文 参考訳(メタデータ) (2023-10-26T02:37:43Z) - Contrastive Lift: 3D Object Instance Segmentation by Slow-Fast
Contrastive Fusion [110.84357383258818]
本稿では,2次元セグメントを3次元に上げ,ニューラルネットワーク表現を用いて融合させる新しい手法を提案する。
このアプローチの中核は、高速なクラスタリング目的関数であり、多数のオブジェクトを持つシーンにスケーラブルで適しています。
我々のアプローチは、ScanNet、Hypersim、Replicaのデータセットからの挑戦的なシーンにおいて、最先端の状況よりも優れています。
論文 参考訳(メタデータ) (2023-06-07T17:57:45Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。