論文の概要: ENTIRE: Learning-based Volume Rendering Time Prediction
- arxiv url: http://arxiv.org/abs/2501.12119v1
- Date: Tue, 21 Jan 2025 13:30:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:23:44.403466
- Title: ENTIRE: Learning-based Volume Rendering Time Prediction
- Title(参考訳): ENTIRE:学習に基づくボリュームレンダリング時間予測
- Authors: Zikai Yin, Hamid Gadirov, Jiri Kosinka, Steffen Frey,
- Abstract要約: ENTIREはボリュームレンダリング時間予測の新しいアプローチである。
まず、レンダリング時間性能に関連する構造をキャプチャするボリュームから特徴ベクトルを抽出する。
各種データセットを用いた実験により, 高速応答速度で高精度な予測精度を効率的に達成できることが実証された。
- 参考スコア(独自算出の注目度): 3.890480928425776
- License:
- Abstract: We present ENTIRE, a novel approach for volume rendering time prediction. Time-dependent volume data from simulations or experiments typically comprise complex deforming structures across hundreds or thousands of time steps, which in addition to the camera configuration has a significant impact on rendering performance. We first extract a feature vector from a volume that captures its structure that is relevant for rendering time performance. Then we combine this feature vector with further relevant parameters (e.g. camera setup), and with this perform the final prediction. Our experiments conducted on various datasets demonstrate that our model is capable of efficiently achieving high prediction accuracy with fast response rates. We showcase ENTIRE's capability of enabling dynamic parameter adaptation for stable frame rates and load balancing in two case studies.
- Abstract(参考訳): 本稿では,ボリュームレンダリング時間予測の新しい手法であるENTIREを提案する。
シミュレーションや実験による時間依存ボリュームデータは通常、数百から数千のタイムステップにわたる複雑な変形構造から構成される。
まず、レンダリング時間性能に関連する構造をキャプチャするボリュームから特徴ベクトルを抽出する。
そして、この特徴ベクトルと、さらに関連するパラメータ(例えば、カメラの設定)を組み合わせることで、最終的な予測を行う。
各種データセットを用いた実験により, 高速応答速度で高精度な予測精度を効率的に達成できることが実証された。
本稿では,2つのケーススタディにおいて,安定したフレームレートとロードバランシングのための動的パラメータ適応を可能にするENTIREの機能を示す。
関連論文リスト
- Adapting to Length Shift: FlexiLength Network for Trajectory Prediction [53.637837706712794]
軌道予測は、自律運転、ロボット工学、シーン理解など、様々な応用において重要な役割を果たしている。
既存のアプローチは主に、一般に標準入力時間を用いて、公開データセットの予測精度を高めるために、コンパクトなニューラルネットワークの開発に重点を置いている。
本稿では,様々な観測期間に対する既存の軌道予測の堅牢性を高めるための,汎用的で効果的なフレームワークFlexiLength Network(FLN)を紹介する。
論文 参考訳(メタデータ) (2024-03-31T17:18:57Z) - Skeleton2vec: A Self-supervised Learning Framework with Contextualized
Target Representations for Skeleton Sequence [56.092059713922744]
予測対象として高レベルな文脈化機能を使用することで,優れた性能が得られることを示す。
具体的には、シンプルで効率的な3D行動表現学習フレームワークであるSkeleton2vecを提案する。
提案するSkeleton2vecは,従来の手法より優れ,最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-01-01T12:08:35Z) - STDepthFormer: Predicting Spatio-temporal Depth from Video with a
Self-supervised Transformer Model [0.0]
ビデオ入力と空間的時間的注意ネットワークから,映像のフレーム列を同時に予測する自己教師型モデルを提案する。
提案モデルでは,物体形状やテクスチャなどの事前のシーン知識を,単一画像深度推定法に類似した手法で活用する。
マルチオブジェクト検出、セグメンテーション、トラッキングを含む複雑なモデルを必要とするのではなく、暗黙的にシーン内のオブジェクトの動きを予測することができる。
論文 参考訳(メタデータ) (2023-03-02T12:22:51Z) - Predicting Surface Texture in Steel Manufacturing at Speed [81.90215579427463]
亜鉛めっきおよび熱間圧延過程における鋼板の表面テクスチャの制御は,顧客要求を満たすために不可欠である。
本稿では,インラインレーザ反射計測から表面特性予測への変換精度向上のための機械学習の利用を提案する。
論文 参考訳(メタデータ) (2023-01-20T12:11:03Z) - DRAformer: Differentially Reconstructed Attention Transformer for
Time-Series Forecasting [7.805077630467324]
時系列予測は、機器ライフサイクル予測、天気予報、交通フロー予測など、多くの現実シナリオにおいて重要な役割を果たす。
最近の研究から、様々なトランスフォーマーモデルが時系列予測において顕著な結果を示したことが観察できる。
しかし、時系列予測タスクにおけるトランスフォーマーモデルの性能を制限する問題がまだ残っている。
論文 参考訳(メタデータ) (2022-06-11T10:34:29Z) - Visual-tactile sensing for Real-time liquid Volume Estimation in
Grasping [58.50342759993186]
変形性容器内の液体をリアルタイムに推定するためのビジュオ触覚モデルを提案する。
我々は、RGBカメラからの生の視覚入力と、特定の触覚センサーからの触覚手がかりの2つの感覚モードを融合する。
ロボットシステムは、推定モデルに基づいて、リアルタイムで適切に制御され、調整される。
論文 参考訳(メタデータ) (2022-02-23T13:38:31Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - A Systematic Exploration of Reservoir Computing for Forecasting Complex
Spatiotemporal Dynamics [0.0]
Reservoir Computer (RC) は、本質的にカオス力学系の予測アーキテクチャに成功しているリカレントニューラルネットワークの一種である。
多数の特性力学系に対する「クラス最良」RCのアーキテクチャと設計選択について検討する。
ローカライゼーションを用いた大規模モデルへのスケールアップにおけるこれらの選択の適用について述べる。
論文 参考訳(メタデータ) (2022-01-21T22:31:12Z) - Unsupervised Video Decomposition using Spatio-temporal Iterative
Inference [31.97227651679233]
マルチオブジェクトシーンの分解は、学習において急速に進化する問題である。
色情報のないモデルでも精度が高いことを示す。
本稿では, モデルの分解, セグメント化予測能力を実証し, いくつかのベンチマークデータセットにおいて, 最先端のモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-25T22:57:17Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。