論文の概要: Binary Losses for Density Ratio Estimation
- arxiv url: http://arxiv.org/abs/2407.01371v1
- Date: Mon, 1 Jul 2024 15:24:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-07-03 21:00:48.360561
- Title: Binary Losses for Density Ratio Estimation
- Title(参考訳): 密度比推定のための二項損失
- Authors: Werner Zellinger,
- Abstract要約: 2つの確率密度の比率を推定することは、機械学習と統計学における中心的な問題である。
本稿では,大きな値の正確な推定を優先する損失関数など,特定の特性を持つ損失関数を構築するための簡単なレシピを提案する。
これはロジスティック損失やロジスティック損失などの古典的損失関数とは対照的であり、小さな値の正確な推定を優先する。
- 参考スコア(独自算出の注目度): 2.512309434783062
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Estimating the ratio of two probability densities from finitely many observations of the densities, is a central problem in machine learning and statistics. A large class of methods constructs estimators from binary classifiers which distinguish observations from the two densities. However, the error of these constructions depends on the choice of the binary loss function, raising the question of which loss function to choose based on desired error properties. In this work, we start from prescribed error measures in a class of Bregman divergences and characterize all loss functions that lead to density ratio estimators with a small error. Our characterization provides a simple recipe for constructing loss functions with certain properties, such as loss functions that prioritize an accurate estimation of large values. This contrasts with classical loss functions, such as the logistic loss or boosting loss, which prioritize accurate estimation of small values. We provide numerical illustrations with kernel methods and test their performance in applications of parameter selection for deep domain adaptation.
- Abstract(参考訳): 2つの確率密度の比を有限個の密度の観測から推定することは、機械学習と統計学における中心的な問題である。
メソッドの大規模なクラスは、2値の分類器から推定器を構築し、2つの密度の観測を区別する。
しかし、これらの構成の誤差は二項損失関数の選択に依存するため、どの損失関数を所望の誤差特性に基づいて選択すべきかという疑問が提起される。
本研究では,ブレグマンの発散するクラスにおける所定の誤差測度から始め,小さな誤差で密度比推定器につながるすべての損失関数を特徴づける。
我々の特徴付けは、大きな値の正確な推定を優先する損失関数など、特定の特性を持つ損失関数を構築するための簡単なレシピを提供する。
これはロジスティック損失やロジスティック損失などの古典的損失関数とは対照的であり、小さな値の正確な推定を優先する。
数値図形をカーネル法で提供し,パラメータ選択による深部領域適応法の性能試験を行う。
関連論文リスト
- Estimating Unbounded Density Ratios: Applications in Error Control under Covariate Shift [17.924340241624204]
我々は,少なくとも2乗とロジスティック回帰に基づく損失関数を用いた密度比推定器について検討した。
我々は、対数係数まで、標準のミニマックス最適率で推定誤差の上限を確立する。
この結果は、非有界領域と範囲を持つ密度比関数に適合する。
論文 参考訳(メタデータ) (2025-03-29T11:35:39Z) - Semiparametric conformal prediction [79.6147286161434]
ベクトル値の非整合性スコアの結合相関構造を考慮した共形予測セットを構築する。
スコアの累積分布関数(CDF)を柔軟に推定する。
提案手法は,現実の回帰問題に対して,所望のカバレッジと競争効率をもたらす。
論文 参考訳(メタデータ) (2024-11-04T14:29:02Z) - Orthogonal Causal Calibration [55.28164682911196]
我々は、任意の損失$ell$に対して、任意の因果パラメータのキャリブレーション誤差$theta$の一般的な上限を証明した。
我々は、因果校正のための2つのサンプル分割アルゴリズムの収束解析に境界を用いる。
論文 参考訳(メタデータ) (2024-06-04T03:35:25Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - Asymptotic Characterisation of Robust Empirical Risk Minimisation
Performance in the Presence of Outliers [18.455890316339595]
我々は,次元$d$とデータ点数$n$が固定比$alpha=n/d$で分岐した場合,高次元の線形回帰について検討し,出力率を含むデータモデルについて検討する。
我々は、$ell$-regularized $ell$, $ell_$, Huber損失を用いて、経験的リスク最小化(ERM)のパフォーマンスの正確性を提供する。
論文 参考訳(メタデータ) (2023-05-30T12:18:39Z) - Xtreme Margin: A Tunable Loss Function for Binary Classification
Problems [0.0]
本稿では,新しい損失関数 Xtreme Margin の損失関数について概説する。
二進的クロスエントロピーやヒンジ損失関数とは異なり、この損失関数は研究者や実践者がトレーニングプロセスに柔軟性をもたらす。
論文 参考訳(メタデータ) (2022-10-31T22:39:32Z) - Nonparametric Probabilistic Regression with Coarse Learners [1.8275108630751844]
我々は, 密度の形状や形状について最小限の仮定で, 正確な条件密度を計算することができることを示す。
このアプローチをさまざまなデータセットで実証し、特に大きなデータセットで競合性能を示す。
論文 参考訳(メタデータ) (2022-10-28T16:25:26Z) - The Geometry and Calculus of Losses [10.451984251615512]
本稿では,二項・多クラス分類とクラス確率推定問題に対する損失関数の理論を開発する。
視点は3つの新しい機会を提供する。
これにより、これまで気付かなかったと思われる損失と(反)ノルムの基本的な関係の開発が可能になる。
第二に、凸集合の計算によって引き起こされる損失の計算の開発を可能にする。
第三に、パースペクティブは、損失を定義する凸集合の極双対から導かれる極の損失関数の自然な理論につながる。
論文 参考訳(メタデータ) (2022-09-01T05:57:19Z) - Data-Driven Influence Functions for Optimization-Based Causal Inference [105.5385525290466]
統計的汎関数に対するガトー微分を有限差分法で近似する構成的アルゴリズムについて検討する。
本研究では,確率分布を事前知識がないが,データから推定する必要がある場合について検討する。
論文 参考訳(メタデータ) (2022-08-29T16:16:22Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Meta Learning Low Rank Covariance Factors for Energy-Based Deterministic
Uncertainty [58.144520501201995]
ニューラルネットワーク層のBi-Lipschitz正規化は、各レイヤの特徴空間におけるデータインスタンス間の相対距離を保存する。
注意セットエンコーダを用いて,タスク固有の共分散行列を効率的に構築するために,対角的,対角的,低ランクな要素のメタ学習を提案する。
また,最終的な予測分布を達成するために,スケールしたエネルギーを利用する推論手法を提案する。
論文 参考訳(メタデータ) (2021-10-12T22:04:19Z) - Featurized Density Ratio Estimation [82.40706152910292]
本研究では,2つの分布を推定前の共通特徴空間にマッピングするために,可逆生成モデルを活用することを提案する。
この偉業化は、学習された入力空間の密度比が任意に不正確な場合、潜在空間において密度が密接な関係をもたらす。
同時に、特徴写像の可逆性は、特徴空間で計算された比が入力空間で計算された比と同値であることを保証する。
論文 参考訳(メタデータ) (2021-07-05T18:30:26Z) - Learning Optical Flow from a Few Matches [67.83633948984954]
密な相関体積表現は冗長であり、その中の要素のほんの一部で正確なフロー推定が達成できることを示した。
実験により,高い精度を維持しつつ計算コストとメモリ使用量を大幅に削減できることを示した。
論文 参考訳(メタデータ) (2021-04-05T21:44:00Z) - A Symmetric Loss Perspective of Reliable Machine Learning [87.68601212686086]
平衡誤差率 (BER) の最小化において, 対称損失が破損ラベルからのロバストな分類をいかに生み出すかを検討する。
我々は、関連するキーワードからのみ学習したい問題において、AUC手法が自然言語処理にどのように役立つかを実証する。
論文 参考訳(メタデータ) (2021-01-05T06:25:47Z) - Optimized Loss Functions for Object detection: A Case Study on Nighttime
Vehicle Detection [0.0]
本稿では,2つの損失関数を同時に分類と局所化に最適化する。
本研究は, 正試料の局在化精度向上のためにのみ相関が適用されている既存研究と比較して, 相関を利用して真に硬い負試料を得る。
MIoUと呼ばれる新しい局所化損失は、予測ボックスとターゲットボックスの間のマハラノビス距離を組み込むことで、DIoU損失の勾配の不整合を解消する。
論文 参考訳(メタデータ) (2020-11-11T03:00:49Z) - $\sigma^2$R Loss: a Weighted Loss by Multiplicative Factors using
Sigmoidal Functions [0.9569316316728905]
我々は,二乗還元損失(sigma2$R損失)と呼ばれる新たな損失関数を導入する。
我々の損失は明らかな直観と幾何学的解釈を持ち、我々の提案の有効性を実験によって実証する。
論文 参考訳(メタデータ) (2020-09-18T12:34:40Z) - Evaluating representations by the complexity of learning low-loss
predictors [55.94170724668857]
下流タスクの解決に使用されるデータの表現を評価することの問題点を考察する。
本稿では,関心のあるタスクにおける低損失を実現する表現の上に,予測器を学習する複雑性によって表現の質を測定することを提案する。
論文 参考訳(メタデータ) (2020-09-15T22:06:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。