論文の概要: Optimal Transport in the Face of Noisy Data
- arxiv url: http://arxiv.org/abs/2102.04363v1
- Date: Mon, 8 Feb 2021 17:12:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 04:27:08.669937
- Title: Optimal Transport in the Face of Noisy Data
- Title(参考訳): ノイズデータによる最適輸送
- Authors: Bart P.G. Van Parys
- Abstract要約: ここでは,ノイズデータに直面する決定問題に対して,最適な統計的保証を享受するために,最適輸送法を示す。
このことは、もし最適輸送距離が同様の統計的な保証を受けることがあったとしても、疑問を呈する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimal transport distances are popular and theoretically well understood in
the context of data-driven prediction. A flurry of recent work has popularized
these distances for data-driven decision-making as well although their merits
in this context are far less well understood. This in contrast to the more
classical entropic distances which are known to enjoy optimal statistical
properties. This begs the question when, if ever, optimal transport distances
enjoy similar statistical guarantees. Optimal transport methods are shown here
to enjoy optimal statistical guarantees for decision problems faced with noisy
data.
- Abstract(参考訳): 最適輸送距離は、データ駆動予測の文脈で一般的で理論的によく理解されている。
最近の研究の激化は、データ駆動意思決定のためのこれらの距離を広めてきたが、この文脈におけるそのメリットは、あまり理解されていない。
これとは対照的に、より古典的なエントロピー距離は最適な統計特性を享受することが知られている。
これは、最適な輸送距離が同様の統計的保証をいつ享受するかを疑問視する。
ここでは,ノイズデータに直面する決定問題に対する最適統計的保証を享受するために最適な移動方法を示す。
関連論文リスト
- Learning to Abstain From Uninformative Data [20.132146513548843]
本研究では,一般的なノイズ発生過程下での学習と行動の問題について検討する。
この問題において、データ分布はラベルに高ノイズの非形式的なサンプルのかなりの割合を有する。
本稿では,選択学習理論に着想を得た損失を生かして,これらの条件下での学習に新たなアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-25T15:55:55Z) - Optimizing the Noise in Self-Supervised Learning: from Importance
Sampling to Noise-Contrastive Estimation [80.07065346699005]
GAN(Generative Adversarial Networks)のように、最適な雑音分布はデータ分布に等しくなると広く想定されている。
我々は、この自己教師型タスクをエネルギーベースモデルの推定問題として基礎づけるノイズ・コントラスト推定に目を向ける。
本研究は, 最適雑音のサンプリングは困難であり, 効率性の向上は, データに匹敵する雑音分布を選択することに比べ, 緩やかに行うことができると結論付けた。
論文 参考訳(メタデータ) (2023-01-23T19:57:58Z) - Improving the Robustness of Summarization Models by Detecting and
Removing Input Noise [40.15896981028647]
本研究では,様々な種類の入力ノイズから,様々なデータセットやモデルサイズに対する性能損失を定量化する大規模な実験的検討を行った。
本稿では,モデル推論中の入力中のそのようなノイズを検出し,除去するための軽量な手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T00:33:11Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - Partial Identification with Noisy Covariates: A Robust Optimization
Approach [94.10051154390237]
観測データセットからの因果推論は、しばしば共変量の測定と調整に依存する。
このロバストな最適化手法により、広範囲な因果調整法を拡張し、部分的同定を行うことができることを示す。
合成および実データセット全体で、このアプローチは既存の手法よりも高いカバレッジ確率でATEバウンダリを提供する。
論文 参考訳(メタデータ) (2022-02-22T04:24:26Z) - Analyzing and Improving the Optimization Landscape of Noise-Contrastive
Estimation [50.85788484752612]
ノイズコントラスト推定(NCE)は、非正規化確率モデルを学習するための統計的に一貫した手法である。
ノイズ分布の選択がNCEの性能に不可欠であることが実験的に観察されている。
本研究では,不適切な雑音分布を用いた場合,NCEの性能低下の原因を正式に指摘する。
論文 参考訳(メタデータ) (2021-10-21T16:57:45Z) - PriorGrad: Improving Conditional Denoising Diffusion Models with
Data-Driven Adaptive Prior [103.00403682863427]
条件拡散モデルの効率を改善するために, PreGrad を提案する。
PriorGradはデータとパラメータの効率を向上し、品質を向上する。
論文 参考訳(メタデータ) (2021-06-11T14:04:03Z) - Noise in Classification [32.458986097202626]
本章では,雑音の存在下での線形しきい値学習の計算的・統計的側面について考察する。
本稿では,データ生成過程における自然な仮定を生かして,これらのネガティブな結果を扱うためのアプローチについて議論する。
論文 参考訳(メタデータ) (2020-10-10T19:52:26Z) - Evaluating representations by the complexity of learning low-loss
predictors [55.94170724668857]
下流タスクの解決に使用されるデータの表現を評価することの問題点を考察する。
本稿では,関心のあるタスクにおける低損失を実現する表現の上に,予測器を学習する複雑性によって表現の質を測定することを提案する。
論文 参考訳(メタデータ) (2020-09-15T22:06:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。