論文の概要: Beyond Predictive Uncertainty: Reliable Representation Learning with Structural Constraints
- arxiv url: http://arxiv.org/abs/2601.16174v1
- Date: Thu, 22 Jan 2026 18:19:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.689788
- Title: Beyond Predictive Uncertainty: Reliable Representation Learning with Structural Constraints
- Title(参考訳): 予測的不確実性を超えて:構造制約による信頼性のある表現学習
- Authors: Yiyao Yang,
- Abstract要約: 信頼性は、学習した表現そのものの第一級の性質と見なされるべきである。
本稿では,表現レベルの不確実性を明示的にモデル化する信頼性のある表現学習のための原則的フレームワークを提案する。
提案手法では,不確実性を考慮した正規化が直接表現空間に導入され,予測的だけでなく,安定的で,校正的であり,ノイズや構造的摂動に対して頑健な表現が奨励される。
- 参考スコア(独自算出の注目度): 0.3948325938742681
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Uncertainty estimation in machine learning has traditionally focused on the prediction stage, aiming to quantify confidence in model outputs while treating learned representations as deterministic and reliable by default. In this work, we challenge this implicit assumption and argue that reliability should be regarded as a first-class property of learned representations themselves. We propose a principled framework for reliable representation learning that explicitly models representation-level uncertainty and leverages structural constraints as inductive biases to regularize the space of feasible representations. Our approach introduces uncertainty-aware regularization directly in the representation space, encouraging representations that are not only predictive but also stable, well-calibrated, and robust to noise and structural perturbations. Structural constraints, such as sparsity, relational structure, or feature-group dependencies, are incorporated to define meaningful geometry and reduce spurious variability in learned representations, without assuming fully correct or noise-free structure. Importantly, the proposed framework is independent of specific model architectures and can be integrated with a wide range of representation learning methods.
- Abstract(参考訳): 機械学習における不確実性推定は、伝統的に予測段階に焦点を当てており、学習された表現をデフォルトで決定論的で信頼性のあるものとして扱いながら、モデル出力の信頼性を定量化することを目的としている。
本研究では、この暗黙の仮定に挑戦し、信頼性は学習された表現そのものの第一級の性質と見なされるべきであると主張する。
本稿では,表現レベルの不確実性を明示的にモデル化し,構造的制約を帰納的バイアスとして活用し,実現可能な表現空間を規則化する信頼性表現学習の枠組みを提案する。
提案手法では,不確実性を考慮した正規化が直接表現空間に導入され,予測的だけでなく,安定的で,校正的であり,ノイズや構造的摂動に対して頑健な表現が奨励される。
空間性、関係構造、特徴群依存などの構造的制約は、完全に正しい構造やノイズのない構造を仮定することなく、意味のある幾何学を定義し、学習された表現における急激な変動を低減するために組み込まれている。
重要なことに、提案フレームワークは特定のモデルアーキテクチャとは独立しており、幅広い表現学習手法と統合することができる。
関連論文リスト
- Coherence Mechanisms for Provable Self-Improvement [38.3455527898461]
両立概念に基づく自己改善のための原則的枠組みを提案する。
我々は、この概念をプロジェクションに基づくメカニズムを用いて定式化し、ベースラインモデルを一貫した状態に更新すると同時に、元の振る舞いに可能な限り近づいたままにしておく。
我々の分析は包括的であり、遠近法と遠近法の両方を網羅し、これらの保証を実現不可能な設定にしっかりと拡張している。
論文 参考訳(メタデータ) (2025-11-11T16:45:14Z) - Nonparametric Factor Analysis and Beyond [14.232694150264628]
非無視設定における潜伏変数を識別するための一般的なフレームワークを提案する。
生成モデルは,非無視ノイズの存在下においても,ある部分多様体不確定性まで同定可能であることを示す。
また、対応する推定手法を開発し、様々な合成および実世界の設定で検証した。
論文 参考訳(メタデータ) (2025-03-21T05:45:03Z) - Quantification of model error for inverse problems in the Weak Neural Variational Inference framework [0.0]
Weak Neural Variational Inference (WNVI) フレームワークを拡張し,確率的特性推定を行う。
本フレームワークはPDEに基づく逆問題におけるモデル誤差を明示的に定量化する。
提案手法により, 材料特性推定の精度と信頼性が向上することが示唆された。
論文 参考訳(メタデータ) (2025-02-11T09:52:06Z) - The Foundations of Tokenization: Statistical and Computational Concerns [51.370165245628975]
トークン化は、NLPパイプラインにおける重要なステップである。
NLPにおける標準表現法としての重要性は認識されているが、トークン化の理論的基盤はまだ完全には理解されていない。
本稿では,トークン化モデルの表現と解析のための統一的な形式的枠組みを提案することによって,この理論的ギャップに対処することに貢献している。
論文 参考訳(メタデータ) (2024-07-16T11:12:28Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Model-free generalized fiducial inference [0.0]
等角予測(CP)は有限サンプル確率予測を保証するために開発された。
CPアルゴリズムは、不確実性定量化に対する比較的汎用的なアプローチであり、有限サンプル保証は、汎用性に欠ける。
本稿では,不正確な確率論から,CPと一般化フィデューシャル(GF)推論の間の公式な接続を構築するためのツールを提案する。
論文 参考訳(メタデータ) (2023-07-24T01:58:48Z) - When Does Confidence-Based Cascade Deferral Suffice? [69.28314307469381]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Quantifying Representation Reliability in Self-Supervised Learning Models [12.485580780944083]
自己教師付き学習モデルは、データから汎用的な表現を抽出する。
表現信頼性の形式的定義を導入する。
本稿では,下流タスクを優先課題と知らずに表現信頼性を推定するアンサンブルに基づく手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T21:57:33Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。