論文の概要: CosmoFlow: Scale-Aware Representation Learning for Cosmology with Flow Matching
- arxiv url: http://arxiv.org/abs/2507.11842v1
- Date: Wed, 16 Jul 2025 02:15:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.198222
- Title: CosmoFlow: Scale-Aware Representation Learning for Cosmology with Flow Matching
- Title(参考訳): CosmoFlow:フローマッチングによるコスモロジーのためのスケールアウェア表現学習
- Authors: Sidharth Kannan, Tian Qiu, Carolina Cuesta-Lazaro, Haewon Jeong,
- Abstract要約: フローマッチングに基づく生成モデルは、フィールドレベルのコールドダークマター(CDM)シミュレーションデータのコンパクトでセマンティックにリッチな潜在表現を、監督なしで学習することができる。
モデルであるCosmoFlowは、原フィールドデータよりも32倍小さい表現を学習し、フィールドレベルの再構成、合成データ生成、パラメータ推論に使用できる。
- 参考スコア(独自算出の注目度): 5.952011729053457
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative machine learning models have been demonstrated to be able to learn low dimensional representations of data that preserve information required for downstream tasks. In this work, we demonstrate that flow matching based generative models can learn compact, semantically rich latent representations of field level cold dark matter (CDM) simulation data without supervision. Our model, CosmoFlow, learns representations 32x smaller than the raw field data, usable for field level reconstruction, synthetic data generation, and parameter inference. Our model also learns interpretable representations, in which different latent channels correspond to features at different cosmological scales.
- Abstract(参考訳): 生成機械学習モデルは、下流のタスクに必要な情報を保持するデータの低次元表現を学習できることが示されている。
本研究では、フローマッチングに基づく生成モデルを用いて、フィールドレベルの冷暗黒物質(CDM)シミュレーションデータのコンパクトで意味的にリッチな潜在表現を、監督なしで学習できることを実証する。
モデルであるCosmoFlowは、原フィールドデータよりも32倍小さい表現を学習し、フィールドレベルの再構成、合成データ生成、パラメータ推論に使用できる。
我々のモデルは、異なる潜在チャネルが異なる宇宙スケールの特徴に対応する解釈可能な表現も学習する。
関連論文リスト
- Sequential Modeling Enables Scalable Learning for Large Vision Models [120.91839619284431]
本稿では,言語データを用いずにLVM(Large Vision Model)を学習できる新しい逐次モデリング手法を提案する。
我々は、生画像やビデオや注釈付きデータソースを表現できる共通フォーマット「視覚文」を定義した。
論文 参考訳(メタデータ) (2023-12-01T18:59:57Z) - SODA: Bottleneck Diffusion Models for Representation Learning [75.7331354734152]
本稿では,表現学習のための自己教師付き拡散モデルSODAを紹介する。
このモデルには、ソースビューをコンパクトな表現に蒸留するイメージエンコーダが組み込まれており、関連する新規ビューの生成を導く。
エンコーダと復調復調復調復調復調復調復調復調復号器の密集ボトルネックを付与することにより,拡散モデルを強力な表現学習器に変換することができることを示す。
論文 参考訳(メタデータ) (2023-11-29T18:53:34Z) - Domain Adaptive Graph Neural Networks for Constraining Cosmological Parameters Across Multiple Data Sets [40.19690479537335]
DA-GNNは,データセット間のタスクにおいて高い精度とロバスト性を実現する。
このことは、DA-GNNがドメインに依存しない宇宙情報を抽出するための有望な方法であることを示している。
論文 参考訳(メタデータ) (2023-11-02T20:40:21Z) - Homological Convolutional Neural Networks [4.615338063719135]
本稿では,トポロジ的に制約されたネットワーク表現を通じて,データ構造構造を利用した新しいディープラーニングアーキテクチャを提案する。
5つの古典的な機械学習モデルと3つのディープラーニングモデルに対して、18のベンチマークデータセットでモデルをテストします。
論文 参考訳(メタデータ) (2023-08-26T08:48:51Z) - Data Compression and Inference in Cosmology with Self-Supervised Machine
Learning [0.86325068644655]
本稿では,機械学習のパラダイムを新たな方法で活用して,大規模データセットの代表要約を構築する手法を提案する。
本手法を流体力学宇宙学シミュレーションに展開することにより,高度に情報的な要約を実現できることを示す。
その結果、自己教師型機械学習技術は、宇宙データの圧縮と解析に有望な新しいアプローチを提供することが示された。
論文 参考訳(メタデータ) (2023-08-18T18:00:22Z) - Multiscale Flow for Robust and Optimal Cosmological Analysis [7.977229957867868]
マルチスケールフロー(Multiscale Flow)は、サンプルを作成し、2次元宇宙データの場レベル確率をモデル化する生成正規化フローである。
マルチスケールフローは,バリオン効果などのトレーニングデータにはない分布変化を識別できることを示す。
論文 参考訳(メタデータ) (2023-06-07T18:00:06Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Bridging the Gap to Real-World Object-Centric Learning [66.55867830853803]
自己教師付き方法で訓練されたモデルから特徴を再構成することは、完全に教師なしの方法でオブジェクト中心表現が生じるための十分な訓練信号であることを示す。
我々のアプローチであるDINOSAURは、シミュレーションデータ上で既存のオブジェクト中心学習モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-09-29T15:24:47Z) - Low-Rank Constraints for Fast Inference in Structured Models [110.38427965904266]
この研究は、大規模構造化モデルの計算とメモリの複雑さを低減するための単純なアプローチを示す。
言語モデリング,ポリフォニック・ミュージック・モデリング,教師なし文法帰納法,ビデオ・モデリングのためのニューラルパラメータ構造モデルを用いた実験により,我々の手法は大規模状態空間における標準モデルの精度と一致することを示した。
論文 参考訳(メタデータ) (2022-01-08T00:47:50Z) - Contrastive Neighborhood Alignment [81.65103777329874]
本稿では,学習特徴のトポロジを維持するための多様体学習手法であるContrastive Neighborhood Alignment(CNA)を提案する。
対象モデルは、対照的な損失を用いて、ソース表現空間の局所構造を模倣することを目的としている。
CNAは3つのシナリオで説明される: 多様体学習、モデルが元のデータの局所的なトポロジーを次元還元された空間で維持する、モデル蒸留、小さな学生モデルがより大きな教師を模倣するために訓練される、レガシーモデル更新、より強力なモデルに置き換えられる、という3つのシナリオである。
論文 参考訳(メタデータ) (2022-01-06T04:58:31Z) - Characterizing the Latent Space of Molecular Deep Generative Models with
Persistent Homology Metrics [21.95240820041655]
変分オート(VAE)は、エンコーダとデコーダのネットワークペアをトレーニングデータ分散の再構築のために訓練する生成モデルである。
本研究では, 深部生成モデルの潜伏空間が, 構造的および化学的特徴をエンコードできるかどうかを計測する手法を提案する。
論文 参考訳(メタデータ) (2020-10-18T13:33:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。