論文の概要: Landing with the Score: Riemannian Optimization through Denoising
- arxiv url: http://arxiv.org/abs/2509.23357v1
- Date: Sat, 27 Sep 2025 15:10:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.179953
- Title: Landing with the Score: Riemannian Optimization through Denoising
- Title(参考訳): スコアによるランディング:Denoisingによるリーマン最適化
- Authors: Andrey Kharitenko, Zebang Shen, Riccardo de Santi, Niao He, Florian Doerfler,
- Abstract要約: 本稿では,データ分布を最適化に必要な幾何演算に接続するリンク関数を提案する。
この関数が本質多様体演算の回復を可能にすることを示す。
本稿では,2つの効率的な推論時間アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 28.573407652000437
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Under the data manifold hypothesis, high-dimensional data are concentrated near a low-dimensional manifold. We study the problem of Riemannian optimization over such manifolds when they are given only implicitly through the data distribution, and the standard manifold operations required by classical algorithms are unavailable. This formulation captures a broad class of data-driven design problems that are central to modern generative AI. Our key idea is to introduce a link function that connects the data distribution to the geometric operations needed for optimization. We show that this function enables the recovery of essential manifold operations, such as retraction and Riemannian gradient computation. Moreover, we establish a direct connection between our construction and the score function in diffusion models of the data distribution. This connection allows us to leverage well-studied parameterizations, efficient training procedures, and even pretrained score networks from the diffusion model literature to perform optimization. Building on this foundation, we propose two efficient inference-time algorithms -- Denoising Landing Flow (DLF) and Denoising Riemannian Gradient Descent (DRGD) -- and provide theoretical guarantees for both feasibility (approximate manifold adherence) and optimality (small Riemannian gradient norm). Finally, we demonstrate the effectiveness of our approach on finite-horizon reference tracking tasks in data-driven control, highlighting its potential for practical generative and design applications.
- Abstract(参考訳): データ多様体仮説の下では、高次元データは低次元多様体の近くに集中している。
データ分布を通してのみ暗黙的に与えられるとき、そのような多様体に対するリーマン最適化の問題は研究され、古典的アルゴリズムで必要とされる標準多様体演算は利用できない。
この定式化は、現代の生成AIの中心となる、データ駆動設計の幅広いクラスを捉えている。
我々のキーとなるアイデアは、データ分布と最適化に必要な幾何演算を接続するリンク関数を導入することです。
この関数は、リトラクションやリーマン勾配計算のような本質的な多様体演算の回復を可能にする。
さらに、データ分布の拡散モデルにおいて、構成とスコア関数との直接接続を確立する。
この接続により、よく研究されたパラメータ化、効率的な訓練手順、さらには拡散モデル文献からの事前学習されたスコアネットワークを利用して最適化を行うことができる。
この基礎の上に構築した2つの効率的な推論時間アルゴリズム(DLFとDRGD)を提案し、実現可能性(近似多様体の付着)と最適性(小さなリーマン勾配ノルム)を理論的に保証する。
最後に,データ駆動制御における有限水平参照追跡タスクに対するアプローチの有効性を実証し,その有効性を明らかにした。
関連論文リスト
- Learning functions through Diffusion Maps [0.6768558752130311]
我々は、多様体仮説に基づいて拡散マップフレームワークを構築した。
距離行列の低ランク構造に基づく次元減少戦略を導入する。
オンライン更新機構は、新しいデータの効率的な取り込みを可能にする。
論文 参考訳(メタデータ) (2025-09-03T22:57:33Z) - Diffusion Models as Network Optimizers: Explorations and Analysis [71.69869025878856]
生成拡散モデル(GDM)は,ネットワーク最適化の新しいアプローチとして期待されている。
本研究ではまず,生成モデルの本質的な特徴について考察する。
本稿では,識別的ネットワーク最適化よりも生成モデルの利点を簡潔かつ直感的に示す。
論文 参考訳(メタデータ) (2024-11-01T09:05:47Z) - Functional Graphical Models: Structure Enables Offline Data-Driven Optimization [111.28605744661638]
構造がサンプル効率のよいデータ駆動最適化を実現する方法を示す。
また、FGM構造自体を推定するデータ駆動最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-08T22:33:14Z) - Flow-based Distributionally Robust Optimization [23.232731771848883]
We present a framework, called $textttFlowDRO$, for solve flow-based distributionally robust optimization (DRO) problem with Wasserstein uncertainty set。
我々は、連続した最悪のケース分布(Last Favorable Distribution, LFD)とそれからのサンプルを見つけることを目指している。
本稿では、逆学習、分布論的に堅牢な仮説テスト、およびデータ駆動型分布摂動差分プライバシーの新しいメカニズムを実証する。
論文 参考訳(メタデータ) (2023-10-30T03:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。