論文の概要: Diffusion Autoencoders with Perceivers for Long, Irregular and Multimodal Astronomical Sequences
- arxiv url: http://arxiv.org/abs/2510.20595v1
- Date: Thu, 23 Oct 2025 14:21:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:18.125651
- Title: Diffusion Autoencoders with Perceivers for Long, Irregular and Multimodal Astronomical Sequences
- Title(参考訳): 長大・不規則・多モード天体系列に対するパーシーバー付き拡散オートエンコーダ
- Authors: Yunyi Shen, Alexander Gagliano,
- Abstract要約: パーシーバー付き拡散オートエンコーダ(deep)について紹介する。
daepは異種の測定をトークン化し、Perceiverエンコーダで圧縮し、Perceiver-IO拡散デコーダで再構成する。
様々な分光学的および測光的な天文学的なデータセットにわたって、ディープは低い再構成誤差を達成し、より差別的な潜在空間を生成し、より微細な構造を保存している。
- 参考スコア(独自算出の注目度): 47.1547360356314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised learning has become a central strategy for representation learning, but the majority of architectures used for encoding data have only been validated on regularly-sampled inputs such as images, audios. and videos. In many scientific domains, data instead arrive as long, irregular, and multimodal sequences. To extract semantic information from these data, we introduce the Diffusion Autoencoder with Perceivers (daep). daep tokenizes heterogeneous measurements, compresses them with a Perceiver encoder, and reconstructs them with a Perceiver-IO diffusion decoder, enabling scalable learning in diverse data settings. To benchmark the daep architecture, we adapt the masked autoencoder to a Perceiver encoder/decoder design, and establish a strong baseline (maep) in the same architectural family as daep. Across diverse spectroscopic and photometric astronomical datasets, daep achieves lower reconstruction errors, produces more discriminative latent spaces, and better preserves fine-scale structure than both VAE and maep baselines. These results establish daep as an effective framework for scientific domains where data arrives as irregular, heterogeneous sequences.
- Abstract(参考訳): 自己教師付き学習は表現学習の中心的戦略となっているが、データ符号化に使われるアーキテクチャの大部分は、画像や音声などの定期的なサンプル入力でのみ検証されている。
ビデオも
多くの科学的領域において、データは長大で不規則で多モードなシーケンスに到達する。
これらのデータから意味情報を抽出するために,Perceivers (daep) を用いた拡散オートエンコーダを導入する。
daepは異種測定をトークン化し、Perceiverエンコーダで圧縮し、Perceiver-IO拡散デコーダで再構成することで、多様なデータ設定でスケーラブルな学習を可能にする。
ディープアーキテクチャをベンチマークするために、マスク付きオートエンコーダをPerceiverエンコーダ/デコーダの設計に適応させ、デイプと同じアーキテクチャファミリーで強力なベースライン(ミープ)を確立する。
様々な分光学的および測光的な天文学的なデータセットを通して、ディープは低い再構成誤差を達成し、より識別可能な潜在空間を生成し、VAEとミープのベースラインよりも微細な構造をよりよく保存する。
これらの結果は、データが不規則で不均一なシーケンスとして到着する科学領域の効果的なフレームワークとして、deepを確立している。
関連論文リスト
- Torsion in Persistent Homology and Neural Networks [0.0]
我々は、符号化中にねじれが失われ、潜伏空間で変化し、多くの場合、標準デコーダによって再構成されないことを示す。
本研究は, フィールドベースアプローチの重要な限界を明らかにし, ねじれ情報を保存するアーキテクチャや損失項の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-06-03T16:29:06Z) - Geometry-Preserving Encoder/Decoder in Latent Generative Models [15.766401356353084]
本稿では,VAEと異なる理論的特性を持つ新しいエンコーダ/デコーダフレームワークを提案する。
エンコーダとデコーダの両方のトレーニングプロセスにおいて,この幾何保存エンコーダの重要な利点を示す。
論文 参考訳(メタデータ) (2025-01-16T23:14:34Z) - Unified Generation, Reconstruction, and Representation: Generalized Diffusion with Adaptive Latent Encoding-Decoding [90.77521413857448]
深層生成モデルは,3つのコア機能 – 新たなインスタンスの生成,入力の再構築,コンパクト表現の学習 – に固定されている。
一般化逆変換拡散確率モデル(EDDPM)を導入する。
EDDPMはパラメタライズされた符号化復号を導入することで標準拡散におけるガウス雑音化を一般化する。
テキスト、タンパク質、画像の実験は、多様なデータやタスクを扱う柔軟性を示している。
論文 参考訳(メタデータ) (2024-02-29T10:08:57Z) - Dataset Condensation with Latent Space Knowledge Factorization and
Sharing [73.31614936678571]
与えられたデータセットの規則性を利用してデータセットの凝縮問題を解決する新しい手法を提案する。
データセットを元の入力空間に直接凝縮するのではなく、学習可能な一連のコードでデータセットの生成プロセスを仮定する。
提案手法は,様々なベンチマークデータセットに対して,有意なマージンで新しい最先端記録を達成できることを実験的に示す。
論文 参考訳(メタデータ) (2022-08-21T18:14:08Z) - COIN++: Data Agnostic Neural Compression [55.27113889737545]
COIN++は、幅広いデータモダリティをシームレスに扱うニューラルネットワーク圧縮フレームワークである。
様々なデータモダリティを圧縮することで,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-01-30T20:12:04Z) - UNETR: Transformers for 3D Medical Image Segmentation [8.59571749685388]
UNEt TRansformers(UNETR)と呼ばれる新しいアーキテクチャを導入し、純粋なトランスフォーマーをエンコーダとして入力ボリュームのシーケンス表現を学習します。
提案モデルの性能を様々なイメージング手法で広く検証しています。
論文 参考訳(メタデータ) (2021-03-18T20:17:15Z) - Encoded Prior Sliced Wasserstein AutoEncoder for learning latent
manifold representations [0.7614628596146599]
本稿では,Encoded Prior Sliced Wasserstein AutoEncoderを紹介する。
追加のプリエンコーダネットワークは、データ多様体の埋め込みを学習する。
従来のオートエンコーダとは違って,前者はデータの基盤となる幾何を符号化する。
論文 参考訳(メタデータ) (2020-10-02T14:58:54Z) - Rethinking and Improving Natural Language Generation with Layer-Wise
Multi-View Decoding [59.48857453699463]
シーケンシャル・ツー・シーケンス学習では、デコーダは注意機構に依存してエンコーダから情報を効率的に抽出する。
近年の研究では、異なるエンコーダ層からの表現を多様なレベルの情報に利用することが提案されている。
本稿では, 各デコーダ層に対して, グローバルビューとして機能する最後のエンコーダ層からの表現とともに, ソースシーケンスの立体視のために他のエンコーダ層からのデコーダ層からのデコーダ層を補足するレイヤワイド・マルチビューデコーダを提案する。
論文 参考訳(メタデータ) (2020-05-16T20:00:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。