論文の概要: Weighted Support Points from Random Measures: An Interpretable Alternative for Generative Modeling
- arxiv url: http://arxiv.org/abs/2508.21255v1
- Date: Thu, 28 Aug 2025 22:58:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.895867
- Title: Weighted Support Points from Random Measures: An Interpretable Alternative for Generative Modeling
- Title(参考訳): ランダム測度からの重み付きサポートポイント:生成モデリングの解釈可能な代替手段
- Authors: Peiqi Zhao, Carlos E. Rodríguez, Ramsés H. Mena, Stephen G. Walker,
- Abstract要約: ランダムな重み付きサポートポイントに基づく生成モデリングフレームワークを提案する。
提案手法は,固定されたデータセットから多種多様で解釈可能なサンプルセットを生成する。
提案手法は,ブラックボックス代替品の計算コストのごく一部で,高品質で多様な出力を生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Support points summarize a large dataset through a smaller set of representative points that can be used for data operations, such as Monte Carlo integration, without requiring access to the full dataset. In this sense, support points offer a compact yet informative representation of the original data. We build on this idea to introduce a generative modeling framework based on random weighted support points, where the randomness arises from a weighting scheme inspired by the Dirichlet process and the Bayesian bootstrap. The proposed method generates diverse and interpretable sample sets from a fixed dataset, without relying on probabilistic modeling assumptions or neural network architectures. We present the theoretical formulation of the method and develop an efficient optimization algorithm based on the Convex--Concave Procedure (CCP). Empirical results on the MNIST and CelebA-HQ datasets show that our approach produces high-quality and diverse outputs at a fraction of the computational cost of black-box alternatives such as Generative Adversarial Networks (GANs) or Denoising Diffusion Probabilistic Models (DDPMs). These results suggest that random weighted support points offer a principled, scalable, and interpretable alternative for generative modeling. A key feature is their ability to produce genuinely interpolative samples that preserve underlying data structure.
- Abstract(参考訳): サポートポイントは、完全なデータセットへのアクセスを必要とせずに、Monte Carlo統合などのデータ操作に使用できる、より小さな代表ポイントセットを通じて、大規模なデータセットを要約する。
この意味では、サポートポイントは元のデータのコンパクトで情報的な表現を提供する。
このアイデアに基づいて、ランダムな重み付きサポートポイントに基づく生成モデリングフレームワークを導入し、ディリクレ法やベイズブートストラップにインスパイアされた重み付けスキームからランダム性が発生する。
提案手法は、確率論的モデリング仮定やニューラルネットワークアーキテクチャに頼ることなく、固定データセットから多種多様な解釈可能なサンプルセットを生成する。
本稿では,提案手法の理論的定式化と,CCP(Convex--Concave procedure)に基づく効率的な最適化アルゴリズムの開発を行う。
MNISTとCelebA-HQデータセットの実証結果から,提案手法は,GAN(Generative Adversarial Networks)やDDPM(Denoising Diffusion Probabilistic Models)などのブラックボックス代替品の計算コストのごく一部で,高品質で多様な出力を生成する。
これらの結果は、ランダムな重み付きサポートポイントが、生成モデリングの原則的、スケーラブルで解釈可能な代替手段を提供することを示唆している。
重要な特徴は、基盤となるデータ構造を保存する真の補間的なサンプルを作成する能力である。
関連論文リスト
- Going from a Representative Agent to Counterfactuals in Combinatorial Choice [2.9172603864294033]
本稿では,二元多面体の集合からデータを抽出する意思決定問題について検討する。
本稿では,代表エージェントモデルに基づく非パラメトリックな非実例推論手法を提案する。
論文 参考訳(メタデータ) (2025-05-29T15:24:23Z) - On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
本研究では,(マルチモーダル)自己教師型表現学習のデータ予測タスクにおいて,連続領域における識別確率モデルについて検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
MISが要求する条件付き確率密度の和を近似する新しい非パラメトリック手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - Self-Supervised Dataset Distillation for Transfer Learning [77.4714995131992]
ラベルなしデータセットを、効率的な自己教師付き学習(SSL)のための小さな合成サンプル群に蒸留する新しい問題を提案する。
両レベル最適化におけるSSL目標に対する合成サンプルの勾配は、データ拡張やマスキングから生じるランダム性から、テキストバイアスを受けていることを最初に証明する。
転送学習を含む様々な応用における本手法の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-10-10T10:48:52Z) - T1: Scaling Diffusion Probabilistic Fields to High-Resolution on Unified
Visual Modalities [69.16656086708291]
拡散確率場(DPF)は、距離空間上で定義された連続関数の分布をモデル化する。
本稿では,局所構造学習に着目したビューワイズサンプリングアルゴリズムによる新しいモデルを提案する。
モデルは、複数のモダリティを統一しながら、高解像度のデータを生成するためにスケールすることができる。
論文 参考訳(メタデータ) (2023-05-24T03:32:03Z) - Revisiting the Evaluation of Image Synthesis with GANs [55.72247435112475]
本研究では, 合成性能の評価に関する実証的研究を行い, 生成モデルの代表としてGAN(Generative Adversarial Network)を用いた。
特に、表現空間におけるデータポイントの表現方法、選択したサンプルを用いた公平距離の計算方法、各集合から使用可能なインスタンス数など、さまざまな要素の詳細な分析を行う。
論文 参考訳(メタデータ) (2023-04-04T17:54:32Z) - Optimizing model-agnostic Random Subspace ensembles [5.680512932725364]
教師あり学習のためのモデルに依存しないアンサンブルアプローチを提案する。
提案手法は、ランダム部分空間アプローチのパラメトリックバージョンを用いてモデルのアンサンブルを学習することとを交互に行う。
シミュレーションおよび実世界のデータセット上で,予測と特徴ランキングの両面で,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-07T13:58:23Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z) - Probabilistic Optimal Transport based on Collective Graphical Models [38.49457447599772]
OT(Optimal Transport)は確率分布とヒストグラムの類似性を測定する強力なツールである。
本稿では,OTを確率的生成モデルの最大後部解(MAP)とみなす新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-06-16T02:03:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。