論文の概要: F-Hash: Feature-Based Hash Design for Time-Varying Volume Visualization via Multi-Resolution Tesseract Encoding
- arxiv url: http://arxiv.org/abs/2507.03836v1
- Date: Fri, 04 Jul 2025 23:23:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.895393
- Title: F-Hash: Feature-Based Hash Design for Time-Varying Volume Visualization via Multi-Resolution Tesseract Encoding
- Title(参考訳): F-Hash:マルチリゾリューション・テッセラクトエンコーディングによる時変ボリューム可視化のための特徴ベースハッシュ設計
- Authors: Jianxin Sun, David Lenz, Hongfeng Yu, Tom Peterka,
- Abstract要約: 本稿では,F-Hashを提案する。F-Hash,F-Hash,F-Hash,F-Hash,F-Hash,F-Hash,F-Hash。
提案設計では,バケット廃棄物を使わずに動的4次元マルチ解像度グリッドを非依存に扱うマルチレベル衝突のないハッシュマップ関数を組み込んだ。
実験により、F-Hashは様々な特徴のための様々な時間変化データセットのトレーニングにおいて収束速度を達成することが示された。
- 参考スコア(独自算出の注目度): 4.141671731416174
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interactive time-varying volume visualization is challenging due to its complex spatiotemporal features and sheer size of the dataset. Recent works transform the original discrete time-varying volumetric data into continuous Implicit Neural Representations (INR) to address the issues of compression, rendering, and super-resolution in both spatial and temporal domains. However, training the INR takes a long time to converge, especially when handling large-scale time-varying volumetric datasets. In this work, we proposed F-Hash, a novel feature-based multi-resolution Tesseract encoding architecture to greatly enhance the convergence speed compared with existing input encoding methods for modeling time-varying volumetric data. The proposed design incorporates multi-level collision-free hash functions that map dynamic 4D multi-resolution embedding grids without bucket waste, achieving high encoding capacity with compact encoding parameters. Our encoding method is agnostic to time-varying feature detection methods, making it a unified encoding solution for feature tracking and evolution visualization. Experiments show the F-Hash achieves state-of-the-art convergence speed in training various time-varying volumetric datasets for diverse features. We also proposed an adaptive ray marching algorithm to optimize the sample streaming for faster rendering of the time-varying neural representation.
- Abstract(参考訳): 複雑な時空間的特徴とデータセットの重大さのため、インタラクティブな時間変化ボリュームの可視化は困難である。
近年の研究では、空間領域と時間領域の両方における圧縮、レンダリング、超解像の問題に対処するため、離散的な時間変化ボリュームデータを連続的インプリシットニューラルネットワーク表現(INR)に変換する。
しかし、INRのトレーニングは、特に大規模な時間変動ボリュームデータセットを扱う場合、収束するのに長い時間がかかる。
本研究では,F-Hashを提案する。F-Hashは,時間変動ボリュームデータモデリングのための既存の入力符号化手法と比較して,コンバージェンス速度を大幅に向上する特徴ベースのマルチレゾリューション・テッセラクト符号化アーキテクチャである。
提案設計では,バケット廃棄物を使わずに動的4次元多次元埋め込み格子をマッピングし,コンパクトな符号化パラメータで高符号化能力を実現するマルチレベル衝突不要ハッシュ関数を組み込んだ。
我々の符号化法は時間変化の少ない特徴検出法に非依存であり,特徴追跡と進化可視化のための統一的な符号化ソリューションである。
実験により、F-Hashは様々な特徴のための様々な時間変化ボリュームデータセットのトレーニングにおいて、最先端の収束速度を達成することが示された。
また、時間変化ニューラル表現の高速なレンダリングのために、サンプルストリーミングを最適化する適応的レイマーチングアルゴリズムを提案した。
関連論文リスト
- ODE$_t$(ODE$_l$): Shortcutting the Time and Length in Diffusion and Flow Models for Faster Sampling [33.87434194582367]
本研究では,品質・複雑さのトレードオフを動的に制御できる相補的な方向について検討する。
我々は,フローマッチングトレーニング中に時間と長さの整合性項を用い,任意の時間ステップでサンプリングを行うことができる。
従来の技術と比較すると、CelebA-HQとImageNetのイメージ生成実験は、最も効率的なサンプリングモードで最大3$times$のレイテンシの低下を示している。
論文 参考訳(メタデータ) (2025-06-26T18:59:59Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - FFEINR: Flow Feature-Enhanced Implicit Neural Representation for
Spatio-temporal Super-Resolution [4.577685231084759]
本稿では,フローフィールドデータの超高分解能化のための特徴強調型ニューラルインシシット表現(FFEINR)を提案する。
モデル構造とサンプリング分解能の観点から、暗黙のニューラル表現を最大限に活用することができる。
FFEINRのトレーニングプロセスは、入力層に機能拡張を導入することで容易になる。
論文 参考訳(メタデータ) (2023-08-24T02:28:18Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Dynamic Network-Assisted D2D-Aided Coded Distributed Learning [59.29409589861241]
本稿では,デバイス間のロードバランシングのための新しいデバイス・ツー・デバイス(D2D)支援型符号化学習手法(D2D-CFL)を提案する。
最小処理時間を達成するための最適圧縮率を導出し、収束時間との接続を確立する。
提案手法は,ユーザが継続的にトレーニングデータを生成するリアルタイム協調アプリケーションに有用である。
論文 参考訳(メタデータ) (2021-11-26T18:44:59Z) - Adaptive Machine Learning for Time-Varying Systems: Low Dimensional
Latent Space Tuning [91.3755431537592]
本稿では,時間変化システムを対象とした適応機械学習手法を提案する。
我々は,エンコーダデコーダCNNのエンコーダ部出力において,非常に高次元(N>100k)の入力を低次元(N2)潜在空間にマッピングする。
そこで本手法では,割り込みを伴わないフィードバックに基づいて,内部の相関関係を学習し,その進化をリアルタイムで追跡する。
論文 参考訳(メタデータ) (2021-07-13T16:05:28Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。