論文の概要: Optimal Transport in the Face of Noisy Data
- arxiv url: http://arxiv.org/abs/2102.04363v1
- Date: Mon, 8 Feb 2021 17:12:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 04:27:08.669937
- Title: Optimal Transport in the Face of Noisy Data
- Title(参考訳): ノイズデータによる最適輸送
- Authors: Bart P.G. Van Parys
- Abstract要約: ここでは,ノイズデータに直面する決定問題に対して,最適な統計的保証を享受するために,最適輸送法を示す。
このことは、もし最適輸送距離が同様の統計的な保証を受けることがあったとしても、疑問を呈する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimal transport distances are popular and theoretically well understood in
the context of data-driven prediction. A flurry of recent work has popularized
these distances for data-driven decision-making as well although their merits
in this context are far less well understood. This in contrast to the more
classical entropic distances which are known to enjoy optimal statistical
properties. This begs the question when, if ever, optimal transport distances
enjoy similar statistical guarantees. Optimal transport methods are shown here
to enjoy optimal statistical guarantees for decision problems faced with noisy
data.
- Abstract(参考訳): 最適輸送距離は、データ駆動予測の文脈で一般的で理論的によく理解されている。
最近の研究の激化は、データ駆動意思決定のためのこれらの距離を広めてきたが、この文脈におけるそのメリットは、あまり理解されていない。
これとは対照的に、より古典的なエントロピー距離は最適な統計特性を享受することが知られている。
これは、最適な輸送距離が同様の統計的保証をいつ享受するかを疑問視する。
ここでは,ノイズデータに直面する決定問題に対する最適統計的保証を享受するために最適な移動方法を示す。
関連論文リスト
- Stochastic Amortization: A Unified Approach to Accelerate Feature and Data Attribution [62.71425232332837]
雑音ラベル付きモデルを用いたトレーニングは安価で驚くほど効果的であることを示す。
このアプローチは、いくつかの特徴属性とデータ評価手法を著しく加速し、しばしば既存のアプローチよりも桁違いにスピードアップする。
論文 参考訳(メタデータ) (2024-01-29T03:42:37Z) - Learning to Abstain From Uninformative Data [20.132146513548843]
本研究では,一般的なノイズ発生過程下での学習と行動の問題について検討する。
この問題において、データ分布はラベルに高ノイズの非形式的なサンプルのかなりの割合を有する。
本稿では,選択学習理論に着想を得た損失を生かして,これらの条件下での学習に新たなアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-25T15:55:55Z) - Optimizing the Noise in Self-Supervised Learning: from Importance
Sampling to Noise-Contrastive Estimation [80.07065346699005]
GAN(Generative Adversarial Networks)のように、最適な雑音分布はデータ分布に等しくなると広く想定されている。
我々は、この自己教師型タスクをエネルギーベースモデルの推定問題として基礎づけるノイズ・コントラスト推定に目を向ける。
本研究は, 最適雑音のサンプリングは困難であり, 効率性の向上は, データに匹敵する雑音分布を選択することに比べ, 緩やかに行うことができると結論付けた。
論文 参考訳(メタデータ) (2023-01-23T19:57:58Z) - Improving the Robustness of Summarization Models by Detecting and
Removing Input Noise [50.27105057899601]
本研究では,様々な種類の入力ノイズから,様々なデータセットやモデルサイズに対する性能損失を定量化する大規模な実験的検討を行った。
本稿では,モデル推論中の入力中のそのようなノイズを検出し,除去するための軽量な手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T00:33:11Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - Partial Identification with Noisy Covariates: A Robust Optimization
Approach [94.10051154390237]
観測データセットからの因果推論は、しばしば共変量の測定と調整に依存する。
このロバストな最適化手法により、広範囲な因果調整法を拡張し、部分的同定を行うことができることを示す。
合成および実データセット全体で、このアプローチは既存の手法よりも高いカバレッジ確率でATEバウンダリを提供する。
論文 参考訳(メタデータ) (2022-02-22T04:24:26Z) - Noise in Classification [32.458986097202626]
本章では,雑音の存在下での線形しきい値学習の計算的・統計的側面について考察する。
本稿では,データ生成過程における自然な仮定を生かして,これらのネガティブな結果を扱うためのアプローチについて議論する。
論文 参考訳(メタデータ) (2020-10-10T19:52:26Z) - Contextual Linear Bandits under Noisy Features: Towards Bayesian Oracles [65.9694455739978]
特徴不確実性の下での文脈線形帯域問題について検討する。
本分析により, 最適仮説は, 雑音特性に応じて, 基礎となる実現可能性関数から著しく逸脱しうることが明らかとなった。
これは、古典的アプローチが非自明な後悔境界を保証できないことを意味する。
論文 参考訳(メタデータ) (2017-03-03T21:39:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。