論文の概要: MCMC: Bridging Rendering, Optimization and Generative AI
- arxiv url: http://arxiv.org/abs/2510.09078v1
- Date: Fri, 10 Oct 2025 07:22:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.305322
- Title: MCMC: Bridging Rendering, Optimization and Generative AI
- Title(参考訳): MCMC:ブリッジレンダリング、最適化、生成AI
- Authors: Gurprit Singh, Wenzel Jakob,
- Abstract要約: マルコフ・チェイン・モンテカルロ法(MCMC)は複雑な高次元分布からのサンプルの描画に特に有効である。
本コースは, 学生, 研究者, 実践者に対して, 生成的物理的レンダリングの共通の目標に向けて, 必要な理論的・実践的なツールを提供することを目的としている。
- 参考スコア(独自算出の注目度): 11.779496833580692
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative artificial intelligence (AI) has made unprecedented advances in vision language models over the past two years. During the generative process, new samples (images) are generated from an unknown high-dimensional distribution. Markov Chain Monte Carlo (MCMC) methods are particularly effective in drawing samples from such complex, high-dimensional distributions. This makes MCMC methods an integral component for models like EBMs, ensuring accurate sample generation. Gradient-based optimization is at the core of modern generative models. The update step during the optimization forms a Markov chain where the new update depends only on the current state. This allows exploration of the parameter space in a memoryless manner, thus combining the benefits of gradient-based optimization and MCMC sampling. MCMC methods have shown an equally important role in physically based rendering where complex light paths are otherwise quite challenging to sample from simple importance sampling techniques. A lot of research is dedicated towards bringing physical realism to samples (images) generated from diffusion-based generative models in a data-driven manner, however, a unified framework connecting these techniques is still missing. In this course, we take the first steps toward understanding each of these components and exploring how MCMC could potentially serve as a bridge, linking these closely related areas of research. Our course aims to provide necessary theoretical and practical tools to guide students, researchers and practitioners towards the common goal of generative physically based rendering. All Jupyter notebooks with demonstrations associated to this tutorial can be found on the project webpage: https://sinbag.github.io/mcmc/
- Abstract(参考訳): 生成人工知能(AI)は、過去2年間にビジョン言語モデルにおいて前例のない進歩を遂げてきた。
生成過程の間、未知の高次元分布から新しいサンプル(画像)が生成される。
マルコフ・チェイン・モンテカルロ法(MCMC)はそのような複雑な高次元分布からのサンプルの描画に特に有効である。
これによりMCMCメソッドはEMMのようなモデルにとって不可欠なコンポーネントとなり、正確なサンプル生成が保証される。
勾配に基づく最適化は、現代の生成モデルの中核にある。
最適化中の更新ステップはMarkovチェーンを形成し、新しい更新は現在の状態にのみ依存する。
これにより、パラメータ空間をメモリレスで探索し、勾配に基づく最適化とMCMCサンプリングの利点を組み合わせることができる。
MCMC法は、複雑な光経路が単純で重要なサンプリング技術からサンプリングすることが非常に難しい物理ベースのレンダリングにおいて、等しく重要な役割を担っている。
拡散ベースの生成モデルから生成されたサンプル(イメージ)に物理リアリズムをデータ駆動方式で導入する研究は数多く行われているが、これらのテクニックを結合する統一されたフレームワークはいまだに欠落している。
このコースでは、これらの各コンポーネントの理解と、MCMCが橋として機能する可能性を探究し、これらの密接に関連する研究領域をリンクする。
本コースは, 学生, 研究者, 実践者に対して, 生成的物理的レンダリングの共通の目標に向けて, 必要な理論的・実践的なツールを提供することを目的としている。
このチュートリアルに関連するデモを含むすべてのJupyterノートブックは、プロジェクトのWebページで見ることができる。
関連論文リスト
- Inference-Time Alignment in Diffusion Models with Reward-Guided Generation: Tutorial and Review [59.856222854472605]
このチュートリアルは、拡散モデルにおける下流の報酬関数を最適化するための推論時ガイダンスとアライメント方法に関する詳細なガイドを提供する。
生物学のような分野における実践的な応用は、しばしば特定の指標を最大化するサンプル生成を必要とする。
本稿では,(1)推論時と組み合わせた微調整手法,(2)モンテカルロ木探索などの探索アルゴリズムに基づく推論時アルゴリズム,(3)言語モデルと拡散モデルにおける推論時アルゴリズムの接続について論じる。
論文 参考訳(メタデータ) (2025-01-16T17:37:35Z) - Promises and Pitfalls of Generative Masked Language Modeling: Theoretical Framework and Practical Guidelines [74.42485647685272]
GMLM(Generative Masked Language Models)に焦点を当てる。
我々は,マルコフ連鎖の入力として使用されるマスキングにより,データ分布の条件付き確率に適合するモデルを訓練し,モデルからサンプルを抽出する。
我々は,T5モデルを並列デコーディングに適応させ,最小品質の犠牲を伴って機械翻訳における2~3倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-07-22T18:00:00Z) - Fast training and sampling of Restricted Boltzmann Machines [4.785158987724452]
我々は、RBMトレーニングの最近の理論的進歩に基づいて、トレーニングの計算コストを大幅に削減する。
コンベックス最適化プロセスにより,主成分を低ランクのRBMに符号化する事前学習フェーズを提案する。
パラメータアニール軌道の連続的かつ滑らかな性質を利用して、信頼性と計算効率のよい対数類似度推定を行う。
論文 参考訳(メタデータ) (2024-05-24T09:23:43Z) - STANLEY: Stochastic Gradient Anisotropic Langevin Dynamics for Learning
Energy-Based Models [41.031470884141775]
エネルギーベースモデル(EBM)のためのエンドツーエンド学習アルゴリズムを提案する。
本稿では、異方性段差と勾配インフォームド共分散行列に基づく新しい高次元サンプリング法を提案する。
提案手法,すなわちSTANLEYは,新しいMCMC法を用いてエネルギーベースモデルを学習するための最適化アルゴリズムである。
論文 参考訳(メタデータ) (2023-10-19T11:55:16Z) - Accelerating Markov Chain Monte Carlo sampling with diffusion models [0.0]
本稿では,Metropolis-Hastingsアルゴリズムと拡散モデルを組み合わせることで,マルコフ・チェイン・モンテカルロ(MCMC)サンプリングを高速化する新しい手法を提案する。
画像合成の文脈における拡散モデルについて概観し、低次元データアレイに適した流線形拡散モデルを提供する。
提案手法は,後方の正確な表現を得るために必要な可能性評価の回数を大幅に削減する。
論文 参考訳(メタデータ) (2023-09-04T09:03:41Z) - Continual Learning with Optimal Transport based Mixture Model [17.398605698033656]
成熟最適輸送理論(OT-MM)の優れた性質に基づくオンライン混合モデル学習手法を提案する。
提案手法は,現在の最先端のベースラインを大きく上回ることができる。
論文 参考訳(メタデータ) (2022-11-30T06:40:29Z) - EBM Life Cycle: MCMC Strategies for Synthesis, Defense, and Density
Modeling [116.10821733517976]
本研究は, MCMCサンプリング軌道の所望の長さに応じて, エネルギーベースモデル(EBM)を学習するための戦略を提案する。
1)画像生成のためのショートランサンプリング,2)原則に依存しない対角防御のためのミッドランサンプリング,3)画像確率密度の未変更モデリングのためのロングランサンプリング,である。
論文 参考訳(メタデータ) (2022-05-24T17:52:29Z) - Particle Dynamics for Learning EBMs [83.59335980576637]
エネルギーベースモデリングは教師なし学習への有望なアプローチであり、単一のモデルから多くの下流アプリケーションを生み出す。
コントラスト的アプローチ(contrastive approach)"でエネルギーベースモデルを学習する際の主な困難は、各イテレーションで現在のエネルギー関数からサンプルを生成することである。
本稿では,これらのサンプルを取得し,現行モデルからの粗大なMCMCサンプリングを回避するための代替手法を提案する。
論文 参考訳(メタデータ) (2021-11-26T23:41:07Z) - Controllable and Compositional Generation with Latent-Space Energy-Based
Models [60.87740144816278]
制御可能な生成は、現実世界のアプリケーションで深層生成モデルの採用を成功させる上で重要な要件の1つである。
本研究では, エネルギーモデル(EBM)を用いて, 属性の集合上での合成生成を扱う。
エネルギー関数を論理演算子と合成することにより、分解能1024x1024のフォトリアリスティック画像を生成する際に、このような構成性を実現するのはこれが初めてである。
論文 参考訳(メタデータ) (2021-10-21T03:31:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。