論文の概要: FlowLensing: Simulating Gravitational Lensing with Flow Matching
- arxiv url: http://arxiv.org/abs/2510.07878v1
- Date: Thu, 09 Oct 2025 07:31:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.929085
- Title: FlowLensing: Simulating Gravitational Lensing with Flow Matching
- Title(参考訳): FlowLensing:フローマッチングによる重力レンズのシミュレーション
- Authors: Hamees Sayed, Pranath Reddy, Michael W. Toomey, Sergei Gleyzer,
- Abstract要約: 本稿では,強力な重力レンズシミュレーションのためのコンパクトで効率的なフローマッチングモデルであるFlowLensingを紹介する。
スケーラブルなシミュレーションを可能とすることで、我々のモデルはダークマターの研究、特に宇宙調査におけるダークマターのサブストラクチャの探索を進展させることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gravitational lensing is one of the most powerful probes of dark matter, yet creating high-fidelity lensed images at scale remains a bottleneck. Existing tools rely on ray-tracing or forward-modeling pipelines that, while precise, are prohibitively slow. We introduce FlowLensing, a Diffusion Transformer-based compact and efficient flow-matching model for strong gravitational lensing simulation. FlowLensing operates in both discrete and continuous regimes, handling classes such as different dark matter models as well as continuous model parameters ensuring physical consistency. By enabling scalable simulations, our model can advance dark matter studies, specifically for probing dark matter substructure in cosmological surveys. We find that our model achieves a speedup of over 200$\times$ compared to classical simulators for intensive dark matter models, with high fidelity and low inference latency. FlowLensing enables rapid, scalable, and physically consistent image synthesis, offering a practical alternative to traditional forward-modeling pipelines.
- Abstract(参考訳): 重力レンズはダークマターの最も強力なプローブの1つだが、スケールで高忠実なレンズ画像を作成することはボトルネックのままである。
既存のツールはレイトレーシングやフォワードモデリングのパイプラインに依存しています。
本稿では,拡散変換器をベースとしたコンパクトかつ効率的なフローマッチングモデルであるFlowLensingを紹介した。
FlowLensingは、個別と連続の両方のレシエーションで動作し、異なるダークマターモデルや連続モデルパラメータなどのクラスを扱う。
スケーラブルなシミュレーションを可能とすることで、我々のモデルはダークマターの研究、特に宇宙調査におけるダークマターのサブストラクチャの探索を進展させることができる。
従来の暗黒物質モデルシミュレータと比較して200ドル以上のスピードアップを実現し,高忠実度,低推論遅延を実現している。
FlowLensingは、高速でスケーラブルで物理的に一貫した画像合成を可能にし、従来のフォワードモデリングパイプラインに代わる実用的な代替手段を提供する。
関連論文リスト
- FlowMo: Variance-Based Flow Guidance for Coherent Motion in Video Generation [51.110607281391154]
FlowMoは、テキスト・ビデオ・モデルにおける動きコヒーレンスを高めるためのトレーニング不要のガイダンス手法である。
時間次元のパッチワイドな分散を測定して動きのコヒーレンスを推定し、サンプリング中にこの分散を動的に減少させるためにモデルを導く。
論文 参考訳(メタデータ) (2025-06-01T19:55:33Z) - Conditional Diffusion-Flow models for generating 3D cosmic density fields: applications to f(R) cosmologies [0.0]
次世代の銀河探査は、宇宙スケールでの重力のテストにおいて前例のない精度を約束する。
本研究では,3次元暗黒物質密度場を生成するための条件生成モデルについて,スコアベース(拡散)およびフローベース手法を用いて検討する。
論文 参考訳(メタデータ) (2025-02-24T12:06:23Z) - Oscillation Inversion: Understand the structure of Large Flow Model through the Lens of Inversion Method [60.88467353578118]
実世界のイメージを逆転させる固定点インスパイアされた反復的アプローチは収束を達成せず、異なるクラスタ間で振動することを示す。
本稿では,画像強調,ストロークベースのリカラー化,および視覚的プロンプト誘導画像編集を容易にする,シンプルで高速な分布転送手法を提案する。
論文 参考訳(メタデータ) (2024-11-17T17:45:37Z) - Unfolding Time: Generative Modeling for Turbulent Flows in 4D [49.843505326598596]
本研究では,4次元生成拡散モデルと物理インフォームドガイダンスを導入し,現実的な流れ状態列の生成を可能にする。
提案手法は, 乱流多様体からのサブシーケンス全体のサンプリングに有効であることが示唆された。
この進展は、乱流の時間的進化を分析するために生成モデリングを適用するための扉を開く。
論文 参考訳(メタデータ) (2024-06-17T10:21:01Z) - Vision-Informed Flow Image Super-Resolution with Quaternion Spatial
Modeling and Dynamic Flow Convolution [49.45309818782329]
フロー画像超解像(FISR)は、低分解能フロー画像から高分解能乱流速度場を復元することを目的としている。
既存のFISR法は主に自然画像パターンのフロー画像を処理する。
第一流れの視覚特性インフォームドFISRアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-29T06:48:16Z) - From Zero to Turbulence: Generative Modeling for 3D Flow Simulation [45.626346087828765]
本稿では, 乱流シミュレーションを, 初期流れの状態に依存することなく, 可能な全ての乱流状態の多様体を直接学習する生成タスクとして提案する。
生成モデルでは、未知の物体による乱流の分布を捉え、下流アプリケーションのための高品質で現実的なサンプルを生成する。
論文 参考訳(メタデータ) (2023-05-29T18:20:28Z) - Unsupervised Learning Optical Flow in Multi-frame Dynamic Environment
Using Temporal Dynamic Modeling [7.111443975103329]
本稿では,動的シーンの複数フレーム列からの光フロー推定について検討する。
隣接フレームの動作先を用いて、閉鎖領域のより信頼性の高い監視を行う。
KITTI 2012、KITTI 2015、Sintel Clean、Sintel Finalデータセットの実験は、我々の手法の有効性を実証している。
論文 参考訳(メタデータ) (2023-04-14T14:32:02Z) - Learning Dense and Continuous Optical Flow from an Event Camera [28.77846425802558]
DAVISのようなイベントカメラは、高時間分解能イベントと低フレームレートの強度イメージを同時に出力することができる。
既存の光学フロー推定法のほとんどは、2つの連続した画像フレームに基づいており、固定時間間隔でのみ離散フローを推定できる。
本稿では,イベントストリームを持つ単一画像から,深層学習に基づく高密度かつ連続的な光フロー推定フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-16T17:53:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。