論文の概要: Flowing Datasets with Wasserstein over Wasserstein Gradient Flows
- arxiv url: http://arxiv.org/abs/2506.07534v1
- Date: Mon, 09 Jun 2025 08:17:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.863058
- Title: Flowing Datasets with Wasserstein over Wasserstein Gradient Flows
- Title(参考訳): ワッセルシュタイン勾配流上のワッセルシュタインを伴う流れデータセット
- Authors: Clément Bonet, Christophe Vauthier, Anna Korba,
- Abstract要約: 本稿では,各クラスを特徴の条件付き分布で表現し,これらのクラスでサポートされている混合分布としてデータセットをモデル化する。
我々は、この空間に最適な輸送、すなわちワッサーシュタイン上のワッサーシュタイン(WoW)距離の計量構造を持ち、この空間上の微分構造を導出し、WoW勾配流を定義する。
本フレームワークは, グラデーションフロー構築と新規な抽出可能な機能を利用して, 学習と蒸留作業のデータセット化に応用する。
- 参考スコア(独自算出の注目度): 7.956223802150937
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many applications in machine learning involve data represented as probability distributions. The emergence of such data requires radically novel techniques to design tractable gradient flows on probability distributions over this type of (infinite-dimensional) objects. For instance, being able to flow labeled datasets is a core task for applications ranging from domain adaptation to transfer learning or dataset distillation. In this setting, we propose to represent each class by the associated conditional distribution of features, and to model the dataset as a mixture distribution supported on these classes (which are themselves probability distributions), meaning that labeled datasets can be seen as probability distributions over probability distributions. We endow this space with a metric structure from optimal transport, namely the Wasserstein over Wasserstein (WoW) distance, derive a differential structure on this space, and define WoW gradient flows. The latter enables to design dynamics over this space that decrease a given objective functional. We apply our framework to transfer learning and dataset distillation tasks, leveraging our gradient flow construction as well as novel tractable functionals that take the form of Maximum Mean Discrepancies with Sliced-Wasserstein based kernels between probability distributions.
- Abstract(参考訳): 機械学習における多くの応用は、確率分布として表されるデータを含む。
このようなデータの出現は、このタイプの(無限次元の)オブジェクト上の確率分布上の引き込み可能な勾配流を設計するための、根本的に新しい技術を必要とする。
例えば、ラベル付きデータセットをフローできることは、ドメイン適応から移行学習、データセットの蒸留まで、アプリケーションの中核的なタスクである。
本稿では,各クラスを特徴の関連条件分布で表現し,これらのクラスでサポートされている混合分布としてデータセットをモデル化することを提案する。
我々は、この空間に最適な輸送、すなわちワッサーシュタイン上のワッサーシュタイン(WoW)距離の計量構造を持ち、この空間上の微分構造を導出し、WoW勾配流を定義する。
後者は、与えられた目的関数を減少させるこの空間上のダイナミクスを設計することができる。
本研究では,スライス-ワッサーシュタイン系カーネルを用いた最大平均分散の形式を取り入れた新しい抽出可能な関数と,勾配流構造を利用して,学習と蒸留タスクのデータセット化にフレームワークを適用した。
関連論文リスト
- Wasserstein Flow Matching: Generative modeling over families of distributions [13.620905707751747]
We propose Wasserstein flow matching (WFM) which lifts flow matching on the family of distributions using the Wasserstein geometry。
特に、WFMは、解析的に(ガウスとして)、または経験的に(点雲として)、高次元の分布を生成することができる最初のアルゴリズムである。
論文 参考訳(メタデータ) (2024-11-01T15:55:07Z) - Generative Assignment Flows for Representing and Learning Joint Distributions of Discrete Data [2.6499018693213316]
離散確率変数の結合確率分布の表現のための新しい生成モデルを提案する。
このアプローチでは、分解分布の統計部分多様体上のランダム化代入フローによる測度輸送を用いる。
論文 参考訳(メタデータ) (2024-06-06T21:58:33Z) - Bures-Wasserstein Means of Graphs [60.42414991820453]
本研究では,スムーズなグラフ信号分布の空間への埋め込みを通じて,グラフ平均を定義する新しいフレームワークを提案する。
この埋め込み空間において平均を求めることにより、構造情報を保存する平均グラフを復元することができる。
我々は,新しいグラフの意味の存在と特異性を確立し,それを計算するための反復アルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-05-31T11:04:53Z) - Dynamic Flows on Curved Space Generated by Labeled Data [17.621847430986854]
興味のあるデータセットに近い新しいサンプルを生成するための勾配流法を提案する。
本手法は,移動学習環境における分類モデルの精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-01-31T19:53:01Z) - ManiFlow: Implicitly Representing Manifolds with Normalizing Flows [145.9820993054072]
正規化フロー(NF)は、複雑な実世界のデータ分布を正確にモデル化することが示されているフレキシブルな明示的な生成モデルである。
摂動分布から標本を与えられた多様体上の最も可能性の高い点を復元する最適化目的を提案する。
最後に、NFsの明示的な性質、すなわち、ログのような勾配とログのような勾配から抽出された表面正規化を利用する3次元点雲に焦点を当てる。
論文 参考訳(メタデータ) (2022-08-18T16:07:59Z) - GFlowNet Foundations [66.69854262276391]
Generative Flow Networks (GFlowNets) は、多様な候補をアクティブな学習コンテキストでサンプリングする方法として導入された。
GFlowNetのさらなる理論的性質について述べる。
論文 参考訳(メタデータ) (2021-11-17T17:59:54Z) - Large-Scale Wasserstein Gradient Flows [84.73670288608025]
ワッサーシュタイン勾配流を近似するスケーラブルなスキームを導入する。
我々のアプローチは、JKOステップを識別するために、入力ニューラルネットワーク(ICNN)に依存しています。
その結果、勾配拡散の各ステップで測定値からサンプリングし、その密度を計算することができる。
論文 参考訳(メタデータ) (2021-06-01T19:21:48Z) - Dataset Dynamics via Gradient Flows in Probability Space [15.153110906331733]
本稿では,データ生成連立確率分布の最適化を目的とした,データセット変換のための新しいフレームワークを提案する。
このフレームワークは、分類データセットに制約を課したり、トランスファーラーニングに適応させたり、固定またはブラックボックスモデルを再使用して -- 高精度で -- 以前は見つからなかったデータセットを分類するために使用することができる。
論文 参考訳(メタデータ) (2020-10-24T03:29:22Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。