論文の概要: On the inconsistency of separable losses for structured prediction
- arxiv url: http://arxiv.org/abs/2301.10810v1
- Date: Wed, 25 Jan 2023 20:02:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-27 15:03:56.732004
- Title: On the inconsistency of separable losses for structured prediction
- Title(参考訳): 構造予測のための分離損失の不整合について
- Authors: Caio Corro
- Abstract要約: 構造予測における負の対数類似損失は必ずしもベイズと一致しないことを示す。
この事実は、これらの損失が構造化予測に適合しているかどうか、もしそうならなぜかという疑問を提起する。
- 参考スコア(独自算出の注目度): 5.228711636020665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we prove that separable negative log-likelihood losses for
structured prediction are not necessarily Bayes consistent, or, in other words,
minimizing these losses may not result in a model that predicts the most
probable structure in the data distribution for a given input. This fact opens
the question of whether these losses are well-adapted for structured prediction
and, if so, why.
- Abstract(参考訳): 本稿では,構造化予測のための分離可能な負のログ類似損失が必ずしもベイズ一貫性を持つとは限らないこと,あるいは,言い換えれば,これらの損失を最小化しても,与えられた入力に対するデータ分布の最も可能性の高い構造を予測できるモデルにはならないことを実証する。
この事実は、これらの損失が構造化予測に適合しているかどうか、もしそうならなぜかという疑問を提起する。
関連論文リスト
- Calibrated Probabilistic Forecasts for Arbitrary Sequences [58.54729945445505]
実際のデータストリームは、分散シフトやフィードバックループ、敵アクターによって予測不可能に変化する可能性がある。
データがどのように進化するかに関わらず、有効な不確実性推定を保証するための予測フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-27T21:46:42Z) - Learning Latent Graph Structures and their Uncertainty [63.95971478893842]
グラフニューラルネットワーク(GNN)は、モデル精度を高めるために帰納バイアスとしてリレーショナル情報を使用する。
課題関連関係が不明なため,下流予測タスクを解きながら学習するためのグラフ構造学習手法が提案されている。
論文 参考訳(メタデータ) (2024-05-30T10:49:22Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Loss-Controlling Calibration for Predictive Models [5.51361762392299]
交換可能なデータに対する損失制御予測を行うための予測モデルの校正のための学習フレームワークを提案する。
対照的に、損失制御手法によって構築された予測器は、設定された予測器に限らない。
提案手法は,選択的回帰および高影響気象予報問題に適用する。
論文 参考訳(メタデータ) (2023-01-11T09:44:55Z) - Conformal Loss-Controlling Prediction [23.218535051437588]
コンフォーマル予測は、予測セットの予測カバレッジを制御する学習フレームワークである。
本研究では,損失関数の値を制御する必要がある状況に対して,共形予測を拡張した共形損失制御予測という学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-06T08:58:49Z) - Model error and its estimation, with particular application to loss
reserving [0.0]
本稿では,特に保険損失の保存に関して,予測誤差について考察する。
パラメータとモデル誤差の見積もりは絡み合っており、それらの解離は少なくとも困難であり、おそらく意味のあるものではない。
論文 参考訳(メタデータ) (2022-09-30T03:53:34Z) - Neuro-Symbolic Entropy Regularization [78.16196949641079]
構造化予測では、目的は構造化されたオブジェクトをエンコードする多くの出力変数を共同で予測することである。
エントロピー正則化(Entropy regularization)という1つのアプローチは、決定境界が低確率領域にあるべきであることを示唆している。
我々は、モデルが有効対象を確実に予測することを奨励する損失、ニューロシンボリックエントロピー正規化を提案する。
論文 参考訳(メタデータ) (2022-01-25T06:23:10Z) - Selective Regression Under Fairness Criteria [30.672082160544996]
少数派集団のパフォーマンスは、カバー範囲を減らしながら低下する場合もある。
満足度基準を満たす特徴を構築できれば、そのような望ましくない行動は避けられることを示す。
論文 参考訳(メタデータ) (2021-10-28T19:05:12Z) - Learning to Predict Trustworthiness with Steep Slope Loss [69.40817968905495]
本研究では,現実の大規模データセットにおける信頼性の予測問題について検討する。
我々は、先行技術損失関数で訓練された信頼性予測器が、正しい予測と誤った予測の両方を信頼に値するものとみなす傾向があることを観察する。
そこで我々は,2つのスライド状の曲線による不正確な予測から,特徴w.r.t.正しい予測を分離する,新たな急勾配損失を提案する。
論文 参考訳(メタデータ) (2021-09-30T19:19:09Z) - Unifying Lower Bounds on Prediction Dimension of Consistent Convex
Surrogates [12.751555473216683]
予測タスクを考えると、一貫した凸サーロゲート損失を設計できるかどうかを理解することは、機械学習研究の重要な領域です。
我々はこれらの設定をプロパティ・エリシテーションのツールを用いて統一し、予測次元の一般的な下限を与える。
我々の下限は、離散的な予測の場合の既存の結果を厳しくし、以前のキャリブレーションに基づく境界は、主にプロパティ・エリケーションによって回復可能であることを示す。
連続推定では, リスクと不確実性の指標を推定し, 未解決の問題に対処する。
論文 参考訳(メタデータ) (2021-02-16T15:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。