論文の概要: Learning to Trust Experience: A Monitor-Trust-Regulator Framework for Learning under Unobservable Feedback Reliability
- arxiv url: http://arxiv.org/abs/2601.09261v2
- Date: Wed, 21 Jan 2026 00:48:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 14:56:59.977282
- Title: Learning to Trust Experience: A Monitor-Trust-Regulator Framework for Learning under Unobservable Feedback Reliability
- Title(参考訳): 信頼への学習: 観測不能なフィードバック信頼性の下での学習のためのモニター・トラスト・レギュレータ・フレームワーク
- Authors: Zhipeng Zhang, Zhenjie Yao, Kai Li, Lei Yang,
- Abstract要約: 保存不能信頼性(EIUR)下におけるてんかんの認識可能性について検討した。
標準的な堅牢な学習は安定して収束するが、高信頼で体系的に間違った信念を形成する。
本稿では,メタ認知制御の実践的対応として,学習者の内的力学における内在的証拠から経験的信頼性を推定する第2の内観的制御ループを提案する。
- 参考スコア(独自算出の注目度): 24.97566911521709
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning under unobservable feedback reliability poses a distinct challenge beyond optimization robustness: a system must decide whether to learn from an experience, not only how to learn stably. We study this setting as Epistemic Identifiability under Unobservable Reliability (EIUR), where each experience has a latent credibility, reliable and unreliable feedback can be locally indistinguishable, and data are generated in a closed loop by the learner's own evolving beliefs and actions. In EIUR, standard robust learning can converge stably yet form high-confidence, systematically wrong beliefs. We propose metacognitive regulation as a practical response: a second, introspective control loop that infers experience credibility from endogenous evidence in the learner's internal dynamics. We formalize this as a modular Monitor-Trust-Regulator (MTR) decomposition and instantiate it with self-diagnosis, which maintains a slowly varying experience-trust variable that softly modulates learning updates, without exogenous reliability labels or an explicit corruption model. Empirically, in the EIUR regimes studied here, self-diagnosis is associated with improved epistemic identifiability. In reinforcement learning, it enables calibrated skepticism and recovery under systematically corrupted rewards. In supervised learning, it exposes a critical dissociation: performance recovery does not imply epistemic recovery. Accuracy can rebound while internal belief dynamics remain locked-in by early misleading data, a failure detectable only through introspective diagnostics. Together, MTR and self-diagnosis provide an organizing abstraction and a concrete design template for intrinsic reliability assessment in autonomous learning under unobservable reliability.
- Abstract(参考訳): システムは、安定して学ぶだけでなく、経験から学ぶべきかどうかを判断しなければならない。
本研究では, 学習者の信頼度, 信頼度, 信頼度の低いフィードバックを局所的に区別でき, 学習者の信念や行動によって閉じたループでデータを生成する。
EIURでは、標準的な堅牢な学習は安定して収束するが、高信頼で体系的に間違った信念を形成する。
本稿では,メタ認知制御の実践的対応として,学習者の内的力学における内在的証拠から経験的信頼性を推定する第2の内観的制御ループを提案する。
我々はこれをモジュラー・モニタ・トラスト・レギュレータ(MTR)分解として形式化し、自己診断でインスタンス化する。これは、外因性信頼性ラベルや明示的な汚職モデルなしで、学習更新をソフトに調整する、徐々に変化する経験信頼変数を維持する。
実証的に、ここで研究されたEIUR体制では、自己診断はてんかんの識別性の改善に結びついている。
強化学習では、体系的に腐敗した報酬の下で、懐疑論と回復を校正することができる。
教師付き学習では、パフォーマンス回復はてんかんの回復を意味するものではない。
内部の信念のダイナミクスが早期の誤解を招くデータによってロックインされている間、精度はリバウンドし、イントロスペクティブ診断によってのみ検出できる。
MTRと自己診断は、観察不能な信頼性の下での自律学習における本質的な信頼性評価のための組織的抽象化と具体的な設計テンプレートを提供する。
関連論文リスト
- Illusions of Confidence? Diagnosing LLM Truthfulness via Neighborhood Consistency [78.91846841708586]
完全な自己整合性で答えられた事実でさえ、軽微な文脈干渉の下で急速に崩壊することを示します。
本研究では,概念的近傍における応答コヒーレンスを評価する信念の構造尺度であるNighbor-Consistency Belief(NCB)を提案する。
また、文脈不変の信念構造を最適化し、長い知識の脆さを約30%低減する構造意識訓練(SAT)を提案する。
論文 参考訳(メタデータ) (2026-01-09T16:23:21Z) - Parent-Guided Adaptive Reliability (PGAR): A Behavioural Meta-Learning Framework for Stable and Trustworthy AI [0.0]
Parent-Guided Adaptive Reliability (PGAR)は軽量な振る舞いメタ学習フレームワークである。
障害時の安定性、キャリブレーション、リカバリを改善するため、標準的な学習者の上に、監督的な"親"層を追加します。
PGARは既存の最適化と学習パイプラインのためのプラグイン信頼性レイヤとして機能し、安全関連設定の解釈可能なトレースをサポートする。
論文 参考訳(メタデータ) (2026-01-07T06:02:34Z) - Aurora: Are Android Malware Classifiers Reliable and Stable under Distribution Shift? [51.12297424766236]
AURORAは、その信頼性と運用上のレジリエンスに基づいて、マルウェア分類器を評価するためのフレームワークである。
AURORAは、ポイント・イン・タイムのパフォーマンスを超えるように設計されたメトリクスのセットによって補完される。
さまざまなドリフトのデータセットにわたるSOTAフレームワークの脆弱性は、ホワイトボードへの復帰の必要性を示唆している。
論文 参考訳(メタデータ) (2025-05-28T20:22:43Z) - TrustLoRA: Low-Rank Adaptation for Failure Detection under Out-of-distribution Data [62.22804234013273]
本稿では,共変量および意味的シフトの両条件下での拒絶による分類を統一し,促進する,単純な故障検出フレームワークを提案する。
キーとなる洞察は、障害固有の信頼性知識を低ランクアダプタで分離し、統合することにより、障害検出能力を効果的かつ柔軟に向上できるということです。
論文 参考訳(メタデータ) (2025-04-20T09:20:55Z) - CARIL: Confidence-Aware Regression in Imitation Learning for Autonomous Driving [0.0]
エンドツーエンドの視覚に基づく模倣学習は、自動運転の有望な結果を証明している。
従来のアプローチでは、正確な制御を提供するレグレッションベースモデルと、信頼性スコアを提供するが、離散化による精度の低下に悩まされる分類ベースモデルのいずれかに依存している。
我々は、回帰と分類の両ヘッドを統合したデュアルヘッドニューラルネットワークアーキテクチャを導入し、模倣学習における決定信頼性を向上させる。
論文 参考訳(メタデータ) (2025-03-02T08:19:02Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - Trust, but Verify: Using Self-Supervised Probing to Improve
Trustworthiness [29.320691367586004]
我々は、訓練されたモデルに対する自信の過剰な問題をチェックおよび緩和することのできる、自己教師型探索の新しいアプローチを導入する。
既存の信頼性関連手法に対して,プラグイン・アンド・プレイ方式で柔軟に適用可能な,シンプルで効果的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-06T08:57:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。