論文の概要: Compressive Modeling and Visualization of Multivariate Scientific Data using Implicit Neural Representation
- arxiv url: http://arxiv.org/abs/2510.15535v1
- Date: Fri, 17 Oct 2025 11:09:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.588747
- Title: Compressive Modeling and Visualization of Multivariate Scientific Data using Implicit Neural Representation
- Title(参考訳): 入射神経表現を用いた多変量科学データの圧縮モデリングと可視化
- Authors: Abhay Kumar Dwivedi, Shanu Saklani, Soumya Dutta,
- Abstract要約: 我々は,数十から数百の変数を含むデータセットに対して,圧縮されたニューラル表現を開発する。
提案手法では,データ変数のレンダリング表現を同時に学習するために,単一のネットワークを利用する。
我々は、再構成データの品質、可視化品質、変数間の依存性情報の保存、ストレージ効率の点で優れた性能を示す。
- 参考スコア(独自算出の注目度): 5.742682177744733
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The extensive adoption of Deep Neural Networks has led to their increased utilization in challenging scientific visualization tasks. Recent advancements in building compressed data models using implicit neural representations have shown promising results for tasks like spatiotemporal volume visualization and super-resolution. Inspired by these successes, we develop compressed neural representations for multivariate datasets containing tens to hundreds of variables. Our approach utilizes a single network to learn representations for all data variables simultaneously through parameter sharing. This allows us to achieve state-of-the-art data compression. Through comprehensive evaluations, we demonstrate superior performance in terms of reconstructed data quality, rendering and visualization quality, preservation of dependency information among variables, and storage efficiency.
- Abstract(参考訳): Deep Neural Networksの広範な採用により、科学的可視化タスクの課題への利用が増加した。
暗黙のニューラル表現を用いた圧縮データモデルの構築の最近の進歩は、時空間体積の可視化や超解像化といったタスクに有望な結果を示している。
これらの成功に触発されて、数十から数百の変数を含む多変量データセットのための圧縮されたニューラル表現を開発した。
提案手法は1つのネットワークを用いてパラメータ共有により全データ変数の表現を同時に学習する。
これにより、最先端のデータ圧縮が実現できます。
包括的評価を通じて、再構成されたデータ品質、レンダリングと視覚化の品質、変数間の依存性情報の保存、ストレージ効率の点で優れた性能を示す。
関連論文リスト
- Detail Across Scales: Multi-Scale Enhancement for Full Spectrum Neural Representations [4.899720537787801]
Inlicit Neural representations (INR) は、離散配列ベースのデータ表現に代わるコンパクトでパラメトリックな代替品として登場した。
本稿では,ウェーブレットをインフォームした暗黙的ニューラル表現であるWIEN-INRを提案する。
WIEN-INRは,コンパクトなモデルサイズを維持しながら,より優れた再現性を実現する。
論文 参考訳(メタデータ) (2025-09-19T00:15:39Z) - Representation-Enhanced Neural Knowledge Integration with Application to Large-Scale Medical Ontology Learning [3.010503480024405]
本稿では,関係型の同時学習を実現するため,理論的に保証されたRENKIという統計フレームワークを提案する。
提案フレームワークは,表現学習出力をニューラルネットワークの初期エンティティ埋め込みに組み込んで,知識グラフのスコア関数を近似する。
ヘテロジニアス関係の存在下での重み付けの効果と、非パラメトリックモデルに表現学習を組み込むことの利点を実証する。
論文 参考訳(メタデータ) (2024-10-09T21:38:48Z) - Feature-to-Image Data Augmentation: Improving Model Feature Extraction with Cluster-Guided Synthetic Samples [4.041834517339835]
本研究ではFICAugを紹介した。FICAugは機能間データ拡張フレームワークである。
構造化された合成サンプルを生成することにより、限られたデータ条件下でのモデル一般化を改善するように設計されている。
実験の結果, FICAugは分類精度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2024-09-26T09:51:08Z) - A Simple Background Augmentation Method for Object Detection with Diffusion Model [53.32935683257045]
コンピュータビジョンでは、データの多様性の欠如がモデル性能を損なうことはよく知られている。
本稿では, 生成モデルの進歩を生かして, 単純かつ効果的なデータ拡張手法を提案する。
背景強化は、特にモデルの堅牢性と一般化能力を大幅に改善する。
論文 参考訳(メタデータ) (2024-08-01T07:40:00Z) - Uncovering the Hidden Cost of Model Compression [43.62624133952414]
視覚プロンプティングは、コンピュータビジョンにおける伝達学習の重要な方法として登場した。
モデル圧縮は視覚的プロンプトベース転送の性能に有害である。
しかし、量子化によってモデルが圧縮されるとき、キャリブレーションに対する負の効果は存在しない。
論文 参考訳(メタデータ) (2023-08-29T01:47:49Z) - Distributed Neural Representation for Reactive in situ Visualization [23.80657290203846]
Inlicit Neural representations (INR) は、大規模ボリュームデータを圧縮するための強力なツールとして登場した。
分散ニューラル表現を開発し,それをその場での可視化に最適化する。
我々の技術はプロセス間のデータ交換を排除し、最先端の圧縮速度、品質、比率を達成する。
論文 参考訳(メタデータ) (2023-03-28T03:55:47Z) - Multi-dataset Training of Transformers for Robust Action Recognition [75.5695991766902]
動作認識のための複数のデータセットをうまく一般化することを目的として,ロバストな特徴表現の課題について検討する。
本稿では、情報損失と投影損失という2つの新しい損失項を設計した、新しいマルチデータセットトレーニングパラダイムであるMultiTrainを提案する。
本研究では,Kineetics-400,Kineetics-700,Moments-in-Time,Activitynet,Some-something-v2の5つの課題データセットに対して,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-09-26T01:30:43Z) - IDLat: An Importance-Driven Latent Generation Method for Scientific Data [12.93181915755184]
本稿では,領域的関心を持つ科学的データ可視化と分析を容易にするために,新しい重要性駆動型潜伏表現を提案する。
空間的重要度マップを用いて、様々な科学的関心を表現し、特徴変換ネットワークの入力として、潜在世代を導く。
論文 参考訳(メタデータ) (2022-08-05T18:23:22Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Video Coding for Machine: Compact Visual Representation Compression for
Intelligent Collaborative Analytics [101.35754364753409]
Video Coding for Machines (VCM) は、ビデオ/画像圧縮と特徴圧縮をある程度別々の研究トラックにブリッジすることを約束している。
本稿では,既存の学術・産業活動に基づくVCM方法論と哲学を要約する。
論文 参考訳(メタデータ) (2021-10-18T12:42:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。