論文の概要: Curiosity is Knowledge: Self-Consistent Learning and No-Regret Optimization with Active Inference
- arxiv url: http://arxiv.org/abs/2602.06029v1
- Date: Thu, 05 Feb 2026 18:58:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:09.148045
- Title: Curiosity is Knowledge: Self-Consistent Learning and No-Regret Optimization with Active Inference
- Title(参考訳): 好奇心と知識--アクティブ推論による自己整合学習と非回帰最適化
- Authors: Yingke Li, Anjali Parashar, Enlu Zhou, Chuchu Fan,
- Abstract要約: 期待自由エネルギー(EFE)を最小化するアクティブ推論
不十分な好奇心は、神秘的な搾取を誘発し、不確実な解決を防ぎ、一方過剰な好奇心は不必要な探索と後悔を引き起こす。
EFE最小化エージェントに関する最初の理論的保証を確立し、単一の要件である十分な好奇心が同時に自己整合性学習と非回帰最適化を保証していることを示す。
- 参考スコア(独自算出の注目度): 20.135421015458817
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active inference (AIF) unifies exploration and exploitation by minimizing the Expected Free Energy (EFE), balancing epistemic value (information gain) and pragmatic value (task performance) through a curiosity coefficient. Yet it has been unclear when this balance yields both coherent learning and efficient decision-making: insufficient curiosity can drive myopic exploitation and prevent uncertainty resolution, while excessive curiosity can induce unnecessary exploration and regret. We establish the first theoretical guarantee for EFE-minimizing agents, showing that a single requirement--sufficient curiosity--simultaneously ensures self-consistent learning (Bayesian posterior consistency) and no-regret optimization (bounded cumulative regret). Our analysis characterizes how this mechanism depends on initial uncertainty, identifiability, and objective alignment, thereby connecting AIF to classical Bayesian experimental design and Bayesian optimization within one theoretical framework. We further translate these theories into practical design guidelines for tuning the epistemic-pragmatic trade-off in hybrid learning-optimization problems, validated through real-world experiments.
- Abstract(参考訳): アクティブ推論(AIF)は、期待自由エネルギー(EFE)を最小化し、好奇心係数を通じて、疫学値(情報ゲイン)と実用値(タスクパフォーマンス)のバランスをとることにより、探索と搾取を統一する。
しかし、このバランスがコヒーレントな学習と効率的な意思決定の両方をもたらすのがいつなのかは定かではない。
我々は,EFE最小化エージェントの理論的保証を初めて確立し,一つの要件である十分な好奇心が,自己整合性学習(ベイジアン後続一貫性)と非回帰的最適化(有界累積後悔)を同時に保証することを示した。
解析では,このメカニズムが初期不確実性,識別可能性,客観的アライメントにどのように依存するかを特徴付け,AIFを古典的ベイズ実験設計に接続し,ベイズ最適化を一つの理論的枠組みで行う。
さらに,これらの理論を,実世界の実験を通じて検証したハイブリッド学習最適化問題において,認識と実用のトレードオフを調整するための実践的設計ガイドラインに翻訳する。
関連論文リスト
- Heterogeneous Uncertainty-Guided Composed Image Retrieval with Fine-Grained Probabilistic Learning [49.28548464288051]
Composed Image Retrieval (CIR)は、参照画像と修正テキストを組み合わせることで、画像検索を可能にする。
CIR三重項の内在ノイズは内在的不確実性を引き起こし、モデルの堅牢性を脅かす。
本稿では,これらの制約を克服するための不確実性誘導(HUG)パラダイムを提案する。
論文 参考訳(メタデータ) (2026-01-16T16:05:49Z) - The Silent Scholar Problem: A Probabilistic Framework for Breaking Epistemic Asymmetry in LLM Agents [0.6117371161379209]
本稿では,エージェントに双方向知識交換のための非構造的動機を与える形式的確率的枠組みを提案する。
これらの蓄積された信念状態が、人間フィードバックからの強化学習(RLHF)と監視ファインチューニング(SFT)のための高品質データフィルタの検証可能な報酬信号としてどのように機能するかを示す。
シミュレーションの結果、この不確実性駆動型戦略が異種環境におけるランダムベースラインを著しく上回ることを示した。
論文 参考訳(メタデータ) (2025-12-24T02:02:25Z) - Towards Reliable LLM-based Robot Planning via Combined Uncertainty Estimation [68.106428321492]
大規模言語モデル (LLM) は高度な推論能力を示し、ロボットが自然言語の命令を理解し、適切な接地で高レベルな計画を生成することができる。
LLMの幻覚は重大な課題であり、しばしば過度に信頼され、不一致または安全でない計画に繋がる。
本研究は, 信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性評価を別々に評価するものである。
論文 参考訳(メタデータ) (2025-10-09T10:26:58Z) - Don't Make It Up: Preserving Ignorance Awareness in LLM Fine-Tuning [19.777830269089588]
大規模言語モデル(LLM)の微調整において、破滅的な忘れを緩和する作業は、主に、これまで見られたデータのパフォーマンスの保存に重点を置いている。
我々は、無視認識の概念を定式化し、従来の微調整手法が実質的なアクティベーション変位をもたらすことを示す。
モデルが新たな知識インスタンスを効果的に取得できるだけでなく,その整合した無知の認識も維持できる,シンプルで原則化された微調整アプローチであるSEATを導入する。
論文 参考訳(メタデータ) (2025-06-17T10:33:23Z) - Confidence Adjusted Surprise Measure for Active Resourceful Trials (CA-SMART): A Data-driven Active Learning Framework for Accelerating Material Discovery under Resource Constraints [7.188573079798082]
代理機械学習(英: surrogate machine learning、ML)モデルは、人間の科学者の科学的発見過程を模倣するモデルである。
サプライズの概念(期待された結果と観測された結果の相違を捉える)は、実験を推し進める大きな可能性を示している。
本稿では,データ駆動実験の最適化に適したベイズ的アクティブラーニングフレームワークである,アクティブ・リソース・トライアルのための信頼性調整サプライズ尺度(CA-)を提案する。
論文 参考訳(メタデータ) (2025-03-27T02:21:42Z) - A Learning-Based Optimal Uncertainty Quantification Method and Its
Application to Ballistic Impact Problems [1.713291434132985]
本稿では、入力(または事前)測度が部分的に不完全であるシステムに対する最適(最大および無限)不確実性境界について述べる。
本研究では,不確実性最適化問題に対する学習基盤の枠組みを実証する。
本手法は,工学的実践における性能証明と安全性のためのマップ構築に有効であることを示す。
論文 参考訳(メタデータ) (2022-12-28T14:30:53Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。