論文の概要: On the inconsistency of separable losses for structured prediction
- arxiv url: http://arxiv.org/abs/2301.10810v1
- Date: Wed, 25 Jan 2023 20:02:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-27 15:03:56.732004
- Title: On the inconsistency of separable losses for structured prediction
- Title(参考訳): 構造予測のための分離損失の不整合について
- Authors: Caio Corro
- Abstract要約: 構造予測における負の対数類似損失は必ずしもベイズと一致しないことを示す。
この事実は、これらの損失が構造化予測に適合しているかどうか、もしそうならなぜかという疑問を提起する。
- 参考スコア(独自算出の注目度): 5.228711636020665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we prove that separable negative log-likelihood losses for
structured prediction are not necessarily Bayes consistent, or, in other words,
minimizing these losses may not result in a model that predicts the most
probable structure in the data distribution for a given input. This fact opens
the question of whether these losses are well-adapted for structured prediction
and, if so, why.
- Abstract(参考訳): 本稿では,構造化予測のための分離可能な負のログ類似損失が必ずしもベイズ一貫性を持つとは限らないこと,あるいは,言い換えれば,これらの損失を最小化しても,与えられた入力に対するデータ分布の最も可能性の高い構造を予測できるモデルにはならないことを実証する。
この事実は、これらの損失が構造化予測に適合しているかどうか、もしそうならなぜかという疑問を提起する。
関連論文リスト
- Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Expressive Losses for Verified Robustness via Convex Combinations [67.54357965665676]
本研究では, 過近似係数と異なる表現的損失に対する性能分布の関係について検討した。
表現性が不可欠である一方で、最悪の場合の損失のより良い近似は、必ずしも優れた堅牢性-正確性トレードオフに結びついていないことを示す。
論文 参考訳(メタデータ) (2023-05-23T12:20:29Z) - Loss-Controlling Calibration for Predictive Models [5.51361762392299]
交換可能なデータに対する損失制御予測を行うための予測モデルの校正のための学習フレームワークを提案する。
対照的に、損失制御手法によって構築された予測器は、設定された予測器に限らない。
提案手法は,選択的回帰および高影響気象予報問題に適用する。
論文 参考訳(メタデータ) (2023-01-11T09:44:55Z) - Conformal Loss-Controlling Prediction [23.218535051437588]
コンフォーマル予測は、予測セットの予測カバレッジを制御する学習フレームワークである。
本研究では,損失関数の値を制御する必要がある状況に対して,共形予測を拡張した共形損失制御予測という学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-06T08:58:49Z) - Model error and its estimation, with particular application to loss
reserving [0.0]
本稿では,特に保険損失の保存に関して,予測誤差について考察する。
パラメータとモデル誤差の見積もりは絡み合っており、それらの解離は少なくとも困難であり、おそらく意味のあるものではない。
論文 参考訳(メタデータ) (2022-09-30T03:53:34Z) - Neuro-Symbolic Entropy Regularization [78.16196949641079]
構造化予測では、目的は構造化されたオブジェクトをエンコードする多くの出力変数を共同で予測することである。
エントロピー正則化(Entropy regularization)という1つのアプローチは、決定境界が低確率領域にあるべきであることを示唆している。
我々は、モデルが有効対象を確実に予測することを奨励する損失、ニューロシンボリックエントロピー正規化を提案する。
論文 参考訳(メタデータ) (2022-01-25T06:23:10Z) - Selective Regression Under Fairness Criteria [30.672082160544996]
少数派集団のパフォーマンスは、カバー範囲を減らしながら低下する場合もある。
満足度基準を満たす特徴を構築できれば、そのような望ましくない行動は避けられることを示す。
論文 参考訳(メタデータ) (2021-10-28T19:05:12Z) - Learning to Predict Trustworthiness with Steep Slope Loss [69.40817968905495]
本研究では,現実の大規模データセットにおける信頼性の予測問題について検討する。
我々は、先行技術損失関数で訓練された信頼性予測器が、正しい予測と誤った予測の両方を信頼に値するものとみなす傾向があることを観察する。
そこで我々は,2つのスライド状の曲線による不正確な予測から,特徴w.r.t.正しい予測を分離する,新たな急勾配損失を提案する。
論文 参考訳(メタデータ) (2021-09-30T19:19:09Z) - Unifying Lower Bounds on Prediction Dimension of Consistent Convex
Surrogates [12.751555473216683]
予測タスクを考えると、一貫した凸サーロゲート損失を設計できるかどうかを理解することは、機械学習研究の重要な領域です。
我々はこれらの設定をプロパティ・エリシテーションのツールを用いて統一し、予測次元の一般的な下限を与える。
我々の下限は、離散的な予測の場合の既存の結果を厳しくし、以前のキャリブレーションに基づく境界は、主にプロパティ・エリケーションによって回復可能であることを示す。
連続推定では, リスクと不確実性の指標を推定し, 未解決の問題に対処する。
論文 参考訳(メタデータ) (2021-02-16T15:29:05Z) - Implicit Regularization in ReLU Networks with the Square Loss [56.70360094597169]
モデルパラメータの明示的な関数によって、平方損失による暗黙の正規化を特徴付けることは不可能であることを示す。
非線形予測器の暗黙的正規化を理解するためには,より一般的な枠組みが必要であることが示唆された。
論文 参考訳(メタデータ) (2020-12-09T16:48:03Z) - Learning Output Embeddings in Structured Prediction [73.99064151691597]
構造化予測に対する強力で柔軟なアプローチは、予測される構造化対象を潜在的に無限次元の特徴空間に埋め込むことである。
原空間における予測は、前像問題の解法により計算される。
本研究では,新しい特徴空間に出力埋め込みと回帰関数の有限近似を共同で学習することを提案する。
論文 参考訳(メタデータ) (2020-07-29T09:32:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。