論文の概要: Data denoising with self consistency, variance maximization, and the Kantorovich dominance
- arxiv url: http://arxiv.org/abs/2502.02925v1
- Date: Wed, 05 Feb 2025 06:39:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-06 14:26:27.487700
- Title: Data denoising with self consistency, variance maximization, and the Kantorovich dominance
- Title(参考訳): 自己整合性, 分散の最大化, および関東ロビッチ支配によるデータデノナイジング
- Authors: Joshua Zoen-Git Hiew, Tongseok Lim, Brendan Pass, Marcelo Cruz de Souza,
- Abstract要約: マルティンゲール最適輸送にインスパイアされたデータデノナイズのための新しいフレームワークを導入する。
このことは、データによって凸秩序に支配される領域内の測度間の分散を最大化することを意味する。
この修正された問題は全凸次数問題といくつかの特徴を共有しているが、安定性の向上、計算効率の向上、そして特定の領域においてより有意義な解を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We introduce a new framework for data denoising, partially inspired by martingale optimal transport. For a given noisy distribution (the data), our approach involves finding the closest distribution to it among all distributions which 1) have a particular prescribed structure (expressed by requiring they lie in a particular domain), and 2) are self-consistent with the data. We show that this amounts to maximizing the variance among measures in the domain which are dominated in convex order by the data. For particular choices of the domain, this problem and a relaxed version of it, in which the self-consistency condition is removed, are intimately related to various classical approaches to denoising. We prove that our general problem has certain desirable features: solutions exist under mild assumptions, have certain robustness properties, and, for very simple domains, coincide with solutions to the relaxed problem. We also introduce a novel relationship between distributions, termed Kantorovich dominance, which retains certain aspects of the convex order while being a weaker, more robust, and easier-to-verify condition. Building on this, we propose and analyze a new denoising problem by substituting the convex order in the previously described framework with Kantorovich dominance. We demonstrate that this revised problem shares some characteristics with the full convex order problem but offers enhanced stability, greater computational efficiency, and, in specific domains, more meaningful solutions. Finally, we present simple numerical examples illustrating solutions for both the full convex order problem and the Kantorovich dominance problem.
- Abstract(参考訳): マーチンゲール最適輸送に部分的にインスパイアされた,データデノナイズのための新しいフレームワークを提案する。
与えられた雑音分布(データ)に対して、我々の手法は、すべての分布に最も近い分布を見つけることである。
1)特定の所定の構造(特定の領域に置かれることを要求して表現される)を有し、
2)データに自己整合性がある。
このことは、データによって凸秩序に支配される領域内の測度間の分散を最大化することを意味する。
ドメインの特定の選択について、この問題と、自己整合性条件を除去する緩和版は、様々な古典的手法と密接に関連している。
解は軽度の仮定の下で存在し、ある強靭性特性を持ち、非常に単純な領域では、緩和された問題の解と一致する。
我々はまた、より弱く、より堅牢で、より検証しやすい状態で、凸秩序の特定の側面を保ちながら、関東ロビッチ支配と呼ばれる分布間の新しい関係も導入する。
そこで,本稿では,コンベックスの順序をカントロビッチ支配の枠組みに置き換えることで,新たなデノベーション問題を提案し,解析する。
この修正された問題は全凸次数問題といくつかの特徴を共有しているが、安定性の向上、計算効率の向上、そして特定の領域においてより有意義な解を提供する。
最後に,全凸次数問題とカントロビッチ優越問題の両方の解について,簡単な数値例を示す。
関連論文リスト
- Error Feedback under $(L_0,L_1)$-Smoothness: Normalization and Momentum [56.37522020675243]
機械学習の幅広い問題にまたがる正規化誤差フィードバックアルゴリズムに対する収束の最初の証明を提供する。
提案手法では,許容可能なステップサイズが大きくなったため,新しい正規化エラーフィードバックアルゴリズムは,各種タスクにおける非正規化エラーよりも優れていた。
論文 参考訳(メタデータ) (2024-10-22T10:19:27Z) - First Order Methods with Markovian Noise: from Acceleration to Variational Inequalities [91.46841922915418]
本稿では,一階変分法の理論解析のための統一的アプローチを提案する。
提案手法は非線形勾配問題とモンテカルロの強い問題の両方をカバーする。
凸法最適化問題の場合、オラクルに強く一致するような境界を与える。
論文 参考訳(メタデータ) (2023-05-25T11:11:31Z) - Distributed Stochastic Optimization under a General Variance Condition [13.911633636387059]
分散最適化は最近、大規模な機械学習問題の解決に効果があるとして、大きな注目を集めている。
我々は、古典的フェデレーション平均化(Avg)を再考し、滑らかな非対象関数に対して、緩やかな分散しか持たない収束結果を確立する。
ほぼ1つの定常収束点も勾配条件の下で成立する。
論文 参考訳(メタデータ) (2023-01-30T05:48:09Z) - Differentiating Nonsmooth Solutions to Parametric Monotone Inclusion
Problems [0.0]
結果の直接的な結果は、これらの解がほぼ至る所で微分可能であることである。
私たちのアプローチは自動微分と完全に互換性があり、簡単にチェックできる仮定が伴います。
論文 参考訳(メタデータ) (2022-12-15T14:05:32Z) - Clipped Stochastic Methods for Variational Inequalities with
Heavy-Tailed Noise [64.85879194013407]
単調なVIPと非単調なVIPの解法における信頼度に対数的依存を持つ最初の高確率結果が証明された。
この結果は光尾の場合で最もよく知られたものと一致し,非単調な構造問題に新鮮である。
さらに,多くの実用的な定式化の勾配雑音が重く,クリッピングによりSEG/SGDAの性能が向上することを示す。
論文 参考訳(メタデータ) (2022-06-02T15:21:55Z) - Minimax Optimization: The Case of Convex-Submodular [50.03984152441271]
ミニマックス問題は連続領域を超えて連続離散領域や完全離散領域にまで拡張される。
連続変数に関して目的が凸であり、離散変数に関して部分モジュラーであるような凸-部分モジュラーミニマックス問題のクラスを導入する。
提案アルゴリズムは反復的であり、離散最適化と連続最適化の両方のツールを組み合わせる。
論文 参考訳(メタデータ) (2021-11-01T21:06:35Z) - On the Convexity of Discrete Time Covariance Steering in Stochastic
Linear Systems with Wasserstein Terminal Cost [1.1602089225841632]
端末状態の共分散が上界であるとき、L"所有者部分順序に関して、この問題は一意に大域的最小化状態フィードバックゲインを許容することを示す。
本研究の結果は, 特殊制御設計ツールの開発に向けての段階を定めている。
論文 参考訳(メタデータ) (2021-03-25T03:24:52Z) - Fundamental Limits and Tradeoffs in Invariant Representation Learning [99.2368462915979]
多くの機械学習アプリケーションは、2つの競合する目標を達成する表現を学習する。
ミニマックスゲーム理論の定式化は、精度と不変性の基本的なトレードオフを表す。
分類と回帰の双方において,この一般的かつ重要な問題を情報論的に解析する。
論文 参考訳(メタデータ) (2020-12-19T15:24:04Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z) - Halpern Iteration for Near-Optimal and Parameter-Free Monotone Inclusion
and Strong Solutions to Variational Inequalities [14.848525762485872]
非拡張写像、単調リプシッツ作用素、近位写像の間の接続を利用して、単調包含問題に対する準最適解を得る。
これらの結果は、変分不等式問題に対する強い解の近似、凸凸凹 min-max 最適化問題の近似、および min-max 最適化問題における勾配のノルムの最小化について、ほぼ最適に保証される。
論文 参考訳(メタデータ) (2020-02-20T17:12:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。