論文の概要: Dynamic Flows on Curved Space Generated by Labeled Data
- arxiv url: http://arxiv.org/abs/2302.00061v1
- Date: Tue, 31 Jan 2023 19:53:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 18:27:34.638473
- Title: Dynamic Flows on Curved Space Generated by Labeled Data
- Title(参考訳): ラベル付きデータによる曲面空間上の動的流れ
- Authors: Xinru Hua, Truyen Nguyen, Tam Le, Jose Blanchet, Viet Anh Nguyen
- Abstract要約: 興味のあるデータセットに近い新しいサンプルを生成するための勾配流法を提案する。
本手法は,移動学習環境における分類モデルの精度を向上させることができることを示す。
- 参考スコア(独自算出の注目度): 17.621847430986854
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The scarcity of labeled data is a long-standing challenge for many machine
learning tasks. We propose our gradient flow method to leverage the existing
dataset (i.e., source) to generate new samples that are close to the dataset of
interest (i.e., target). We lift both datasets to the space of probability
distributions on the feature-Gaussian manifold, and then develop a gradient
flow method that minimizes the maximum mean discrepancy loss. To perform the
gradient flow of distributions on the curved feature-Gaussian space, we unravel
the Riemannian structure of the space and compute explicitly the Riemannian
gradient of the loss function induced by the optimal transport metric. For
practical applications, we also propose a discretized flow, and provide
conditional results guaranteeing the global convergence of the flow to the
optimum. We illustrate the results of our proposed gradient flow method on
several real-world datasets and show our method can improve the accuracy of
classification models in transfer learning settings.
- Abstract(参考訳): ラベル付きデータの不足は多くの機械学習タスクにおいて長年の課題である。
我々は,既存のデータセット(すなわちソース)を活用して,興味のあるデータセット(すなわちターゲット)に近い新しいサンプルを生成する勾配流法を提案する。
特徴ガウス多様体上の確率分布の空間に両方のデータセットを持ち上げて、最大平均誤差損失を最小化する勾配流法を開発する。
曲線特徴ガウス空間上の分布の勾配流を実行するために、空間のリーマン構造を解き、最適輸送計量によって誘導される損失関数のリーマン勾配を明示的に計算する。
実用的応用のために, 離散化フローを提案し, 最適流のグローバル収束を保証する条件付き結果を提供する。
実世界の複数のデータセットに対して提案した勾配流法の結果を概説し,移動学習環境における分類モデルの精度を向上できることを示す。
関連論文リスト
- A Historical Trajectory Assisted Optimization Method for Zeroth-Order Federated Learning [24.111048817721592]
フェデレートラーニングは分散勾配降下技術に大きく依存している。
勾配情報が得られない状況では、勾配をゼロ次情報から推定する必要がある。
勾配推定法を改善するための非等方的サンプリング法を提案する。
論文 参考訳(メタデータ) (2024-09-24T10:36:40Z) - Flow-based Distributionally Robust Optimization [23.232731771848883]
We present a framework, called $textttFlowDRO$, for solve flow-based distributionally robust optimization (DRO) problem with Wasserstein uncertainty set。
我々は、連続した最悪のケース分布(Last Favorable Distribution, LFD)とそれからのサンプルを見つけることを目指している。
本稿では、逆学習、分布論的に堅牢な仮説テスト、およびデータ駆動型分布摂動差分プライバシーの新しいメカニズムを実証する。
論文 参考訳(メタデータ) (2023-10-30T03:53:31Z) - Diffusion Generative Flow Samplers: Improving learning signals through
partial trajectory optimization [87.21285093582446]
Diffusion Generative Flow Samplers (DGFS) はサンプルベースのフレームワークであり、学習プロセスを短い部分的軌道セグメントに分解することができる。
生成フローネットワーク(GFlowNets)のための理論から着想を得た。
論文 参考訳(メタデータ) (2023-10-04T09:39:05Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - ManiFlow: Implicitly Representing Manifolds with Normalizing Flows [145.9820993054072]
正規化フロー(NF)は、複雑な実世界のデータ分布を正確にモデル化することが示されているフレキシブルな明示的な生成モデルである。
摂動分布から標本を与えられた多様体上の最も可能性の高い点を復元する最適化目的を提案する。
最後に、NFsの明示的な性質、すなわち、ログのような勾配とログのような勾配から抽出された表面正規化を利用する3次元点雲に焦点を当てる。
論文 参考訳(メタデータ) (2022-08-18T16:07:59Z) - VQ-Flows: Vector Quantized Local Normalizing Flows [2.7998963147546148]
データ多様体上の「チャートマップ」として局所正規化フローの混合を学習するための新しい統計フレームワークを導入する。
本フレームワークは, 正規化フローのシグネチャ特性を保ちながら, 最近の手法の表現性を向上し, 正確な密度評価を行う。
論文 参考訳(メタデータ) (2022-03-22T09:22:18Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Semi-Supervised Learning with Normalizing Flows [54.376602201489995]
FlowGMMは、フローの正規化を伴う生成半教師付き学習におけるエンドツーエンドのアプローチである。
我々は AG-News や Yahoo Answers のテキストデータなど,幅広いアプリケーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2019-12-30T17:36:33Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。