論文の概要: Displacement-Sparse Neural Optimal Transport
- arxiv url: http://arxiv.org/abs/2502.01889v1
- Date: Mon, 03 Feb 2025 23:44:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:02:48.189898
- Title: Displacement-Sparse Neural Optimal Transport
- Title(参考訳): 変位スパースニューラル最適輸送
- Authors: Peter Chen, Yue Xie, Qingpeng Zhang,
- Abstract要約: 最適輸送(OT)理論は、ソース測度$Pをターゲット測度$Q$に輸送する写像$T:X to Y$を決定する。
ミニマックスワッサーシュタインの定式化にスパーシティペナルティを導入し、変位ベクトル $Delta(mathbfx) := T(mathbfx) := T(mathbfx) := T(mathbfx) := T(mathbfx) := T(mathbfx) := T(mathbfx) := T(mathbff) := T(mathbf)
- 参考スコア(独自算出の注目度): 6.968698312185846
- License:
- Abstract: Optimal Transport (OT) theory seeks to determine the map $T:X \to Y$ that transports a source measure $P$ to a target measure $Q$, minimizing the cost $c(\mathbf{x}, T(\mathbf{x}))$ between $\mathbf{x}$ and its image $T(\mathbf{x})$. Building upon the Input Convex Neural Network OT solver and incorporating the concept of displacement-sparse maps, we introduce a sparsity penalty into the minimax Wasserstein formulation, promote sparsity in displacement vectors $\Delta(\mathbf{x}) := T(\mathbf{x}) - \mathbf{x}$, and enhance the interpretability of the resulting map. However, increasing sparsity often reduces feasibility, causing $T_{\#}(P)$ to deviate more significantly from the target measure. In low-dimensional settings, we propose a heuristic framework to balance the trade-off between sparsity and feasibility by dynamically adjusting the sparsity intensity parameter during training. For high-dimensional settings, we directly constrain the dimensionality of displacement vectors by enforcing $\dim(\Delta(\mathbf{x})) \leq l$, where $l < d$ for $X \subseteq \mathbb{R}^d$. Among maps satisfying this constraint, we aim to identify the most feasible one. This goal can be effectively achieved by adapting our low-dimensional heuristic framework without resorting to dimensionality reduction. We validate our method on both synthesized sc-RNA and real 4i cell perturbation datasets, demonstrating improvements over existing methods.
- Abstract(参考訳): 最適輸送(OT)理論は、ソース測度が$P$を目標測度$Q$に輸送する写像 $T:X \to Y$ を、コスト $c(\mathbf{x}, T(\mathbf{x}))$ とイメージ $T(\mathbf{x})$ の間を最小化する。
入力凸ニューラルネットワークOTソルバをベースとして、変位スパース写像の概念を導入し、ミニマックスワッサーシュタインの定式化にスパーシティペナルティを導入し、変位ベクトル $\Delta(\mathbf{x}) := T(\mathbf{x}) - \mathbf{x}$ のスパーシティを促進し、結果として得られる写像の解釈可能性を高める。
しかし、スパーシリティの増加は実現可能性を減らすことが多く、$T_{\#}(P)$はターゲットの測度から大きく逸脱する。
低次元環境では、トレーニング中に空間強度パラメータを動的に調整することにより、空間性と実現可能性との間のトレードオフのバランスをとるためのヒューリスティックな枠組みを提案する。
高次元設定に対しては、 $\dim(\Delta(\mathbf{x})) \leq l$, ここで $l < d$ for $X \subseteq \mathbb{R}^d$ を強制することにより、変位ベクトルの次元性を直接的に制約する。
この制約を満たすマップの中で、最も実現可能なものを特定することを目的としている。
この目標は、次元の減少に頼らずに、我々の低次元ヒューリスティックな枠組みを適応させることによって効果的に達成できる。
我々は,合成した sc-RNA と実 4i 細胞摂動データセットの両方に対して本手法の有効性を検証し,既存の手法よりも改善したことを示す。
関連論文リスト
- Two-Timescale Gradient Descent Ascent Algorithms for Nonconvex Minimax Optimization [77.3396841985172]
我々は、構造化された非極小最適化問題の解法として、2時間勾配上昇(TTGDA)を統一的に解析する。
我々の貢献はTTGDAアルゴリズムを設計することであり、設定を超えて効果的です。
論文 参考訳(メタデータ) (2024-08-21T20:14:54Z) - The Monge Gap: A Regularizer to Learn All Transport Maps [34.81915836064636]
ブレニエの定理は、地価が二乗ユークリッド距離であるとき、$mathcalP(Rd)$で連続測度を変形させるベストの写像は凸函数の勾配でなければならないというものである。
数学的優雅さにもかかわらず、ICNNにOTマップを組み込むことは多くの課題を提起する。
我々は、OTマップを推定するアプローチを根本的に異なるアプローチで提案する。
論文 参考訳(メタデータ) (2023-02-09T21:56:11Z) - Monge, Bregman and Occam: Interpretable Optimal Transport in
High-Dimensions with Feature-Sparse Maps [37.45959537338404]
我々は、$tau$ のスパース性誘導ノルムを選択すると、Occam のカミソリを輸送に応用する写像が得られることを示した。
本稿では,高次元単細胞転写データに対して有意なマップを推定する手法について紹介する。
論文 参考訳(メタデータ) (2023-02-08T14:02:34Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - Minimax Optimal Regression over Sobolev Spaces via Laplacian
Regularization on Neighborhood Graphs [25.597646488273558]
非パラメトリック回帰に対するグラフに基づくアプローチであるラプラシア平滑化の統計的性質について検討する。
ラプラシアン滑らか化が多様体適応であることを証明する。
論文 参考訳(メタデータ) (2021-06-03T01:20:41Z) - Beyond Lazy Training for Over-parameterized Tensor Decomposition [69.4699995828506]
過度なパラメータ化対象の勾配勾配は遅延学習体制を超え、データ中の特定の低ランク構造を利用する可能性があることを示す。
以上の結果から,過パラメータ化対象の勾配勾配は遅延学習体制を超え,データ中の特定の低ランク構造を利用する可能性が示唆された。
論文 参考訳(メタデータ) (2020-10-22T00:32:12Z) - Nonparametric Learning of Two-Layer ReLU Residual Units [22.870658194212744]
本稿では,線形整列ユニット(ReLU)を活性化した2層残基を学習するアルゴリズムについて述べる。
解析最小化器はそのパラメータと非線形性の観点から、正確な地上構造ネットワークを表現できる機能として層ワイドな目的を設計する。
我々は,アルゴリズムの統計的強い一貫性を証明し,実験によるアルゴリズムの堅牢性とサンプル効率を実証する。
論文 参考訳(メタデータ) (2020-08-17T22:11:26Z) - A deep network construction that adapts to intrinsic dimensionality
beyond the domain [79.23797234241471]
本稿では,ReLUを活性化したディープネットワークを用いて,2層合成の近似を$f(x) = g(phi(x))$で検討する。
例えば、低次元埋め込み部分多様体への射影と、低次元集合の集合への距離である。
論文 参考訳(メタデータ) (2020-08-06T09:50:29Z) - Agnostic Learning of a Single Neuron with Gradient Descent [92.7662890047311]
期待される正方形損失から、最も適合した単一ニューロンを学習することの問題点を考察する。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
論文 参考訳(メタデータ) (2020-05-29T07:20:35Z) - Naive Exploration is Optimal for Online LQR [49.681825576239355]
最適後悔尺度は$widetildeTheta(sqrtd_mathbfu2 d_mathbfx T)$で、$T$は時間ステップの数、$d_mathbfu$は入力空間の次元、$d_mathbfx$はシステム状態の次元である。
我々の下界は、かつての$mathrmpoly(logT)$-regretアルゴリズムの可能性を排除する。
論文 参考訳(メタデータ) (2020-01-27T03:44:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。