論文の概要: Efficiently Generating Multidimensional Calorimeter Data with Tensor Decomposition Parameterization
- arxiv url: http://arxiv.org/abs/2508.19443v1
- Date: Tue, 26 Aug 2025 21:30:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.430577
- Title: Efficiently Generating Multidimensional Calorimeter Data with Tensor Decomposition Parameterization
- Title(参考訳): テンソル分解パラメーターを用いた多次元熱量データの効率的な生成
- Authors: Paimon Goulart, Shaan Pakala, Evangelos Papalexakis,
- Abstract要約: 生成機械学習モデルに内部テンソル分解を導入し、コスト削減を図る。
多次元データ、あるいはテンソルに対しては、フルテンソルの代わりにより小さなテンソル因子を生成する。
これにより、複雑なシミュレーションデータを生成するコストが削減される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Producing large complex simulation datasets can often be a time and resource consuming task. Especially when these experiments are very expensive, it is becoming more reasonable to generate synthetic data for downstream tasks. Recently, these methods may include using generative machine learning models such as Generative Adversarial Networks or diffusion models. As these generative models improve efficiency in producing useful data, we introduce an internal tensor decomposition to these generative models to even further reduce costs. More specifically, for multidimensional data, or tensors, we generate the smaller tensor factors instead of the full tensor, in order to significantly reduce the model's output and overall parameters. This reduces the costs of generating complex simulation data, and our experiments show the generated data remains useful. As a result, tensor decomposition has the potential to improve efficiency in generative models, especially when generating multidimensional data, or tensors.
- Abstract(参考訳): 大規模な複雑なシミュレーションデータセットを作成することは、しばしば時間とリソース消費のタスクである。
特に、これらの実験が非常に高価である場合には、下流タスクのための合成データを生成するのがより合理的になっている。
近年、これらの手法はジェネレーティブ・アドバイサル・ネットワーク(Generative Adversarial Networks)や拡散モデルなどの生成機械学習モデルの使用を含むことができる。
これらの生成モデルは有用なデータの生成効率を向上させるため、これらの生成モデルに内部テンソル分解を導入してコストをさらに削減する。
具体的には、多次元データやテンソルに対して、モデルの出力と全体パラメータを著しく減少させるために、フルテンソルの代わりにより小さなテンソル因子を生成する。
これにより、複雑なシミュレーションデータを生成するコストが削減される。
その結果、テンソル分解は、特に多次元データやテンソルを生成する場合、生成モデルの効率を向上させる可能性がある。
関連論文リスト
- Generative Expansion of Small Datasets: An Expansive Graph Approach [13.053285552524052]
最小限のサンプルから大規模で情報豊富なデータセットを生成する拡張合成モデルを提案する。
自己アテンション層と最適なトランスポートを持つオートエンコーダは、分散一貫性を洗練させる。
結果は同等のパフォーマンスを示し、モデルがトレーニングデータを効果的に増強する可能性を示している。
論文 参考訳(メタデータ) (2024-06-25T02:59:02Z) - Heat Death of Generative Models in Closed-Loop Learning [63.83608300361159]
本研究では、独自の学習データセットに加えて、生成したコンテンツをフィードバックする生成モデルの学習ダイナミクスについて検討する。
各イテレーションで十分な量の外部データが導入されない限り、非自明な温度がモデルを退化させることを示す。
論文 参考訳(メタデータ) (2024-04-02T21:51:39Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Quantized Fourier and Polynomial Features for more Expressive Tensor
Network Models [9.18287948559108]
モデル重みを過度にパラメータ化されたテンソルネットワークに制約することで,特徴量に存在するテンソル構造を利用する。
同じ数のモデルパラメータに対して、結果の量子化モデルは、その非量子化モデルとは対照的に、VC次元に高いバウンドを持つことを示す。
論文 参考訳(メタデータ) (2023-09-11T13:18:19Z) - Synthetic data, real errors: how (not) to publish and use synthetic data [86.65594304109567]
生成過程が下流MLタスクにどのように影響するかを示す。
本稿では、生成プロセスモデルパラメータの後方分布を近似するために、Deep Generative Ensemble (DGE)を導入する。
論文 参考訳(メタデータ) (2023-05-16T07:30:29Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。