論文の概要: Wild Guesses and Mild Guesses in Active Concept Learning
- arxiv url: http://arxiv.org/abs/2602.06818v1
- Date: Fri, 06 Feb 2026 16:04:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.468503
- Title: Wild Guesses and Mild Guesses in Active Concept Learning
- Title(参考訳): 能動的概念学習におけるワイルド・ゲストとマイルド・ゲスト
- Authors: Anirudh Chari, Neil Pattanaik,
- Abstract要約: 大規模言語モデル(LLM)による仮説を提唱したニューロシンボリック・ベイズ学習者のトレードオフについて検討する。
我々は,推定情報ゲイン(EIG)を最大化するためにクエリを選択するRational Active Learnerと,人型陽性テスト戦略(PTS)を比較した。
以上の結果から,「確認バイアス」は認知的誤りではなく,人間の思考に特徴的な疎明でオープンな仮説空間において,抽出可能な推論を維持するための合理的適応である可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human concept learning is typically active: learners choose which instances to query or test in order to reduce uncertainty about an underlying rule or category. Active concept learning must balance informativeness of queries against the stability of the learner that generates and scores hypotheses. We study this trade-off in a neuro-symbolic Bayesian learner whose hypotheses are executable programs proposed by a large language model (LLM) and reweighted by Bayesian updating. We compare a Rational Active Learner that selects queries to maximize approximate expected information gain (EIG) and the human-like Positive Test Strategy (PTS) that queries instances predicted to be positive under the current best hypothesis. Across concept-learning tasks in the classic Number Game, EIG is effective when falsification is necessary (e.g., compound or exception-laden rules), but underperforms on simple concepts. We trace this failure to a support mismatch between the EIG policy and the LLM proposal distribution: highly diagnostic boundary queries drive the posterior toward regions where the generator produces invalid or overly specific programs, yielding a support-mismatch trap in the particle approximation. PTS is information-suboptimal but tends to maintain proposal validity by selecting "safe" queries, leading to faster convergence on simple rules. Our results suggest that "confirmation bias" may not be a cognitive error, but rather a rational adaptation for maintaining tractable inference in the sparse, open-ended hypothesis spaces characteristic of human thought.
- Abstract(参考訳): 学習者は、根底にあるルールやカテゴリに関する不確実性を減らすために、どのインスタンスをクエリするか、テストするかを選択する。
アクティブな概念学習は、仮説の生成とスコア付けを行う学習者の安定性に対して、クエリのインフォメーション性をバランスさせなければならない。
本研究では,このトレードオフを,大言語モデル (LLM) によって提案され,ベイジアン更新によって再重み付けされるプログラムを仮説とする,ニューロシンボリック・ベイジアン学習者を用いて検討する。
本稿では,予測情報ゲイン(EIG)を最大化するためにクエリを選択するRational Active Learnerと,現在の最適仮説の下で予測されるクエリインスタンスを肯定的に評価するHuman-like Positive Test Strategy(PTS)を比較した。
古典的な数値ゲームにおける概念学習のタスク全体において、EIGはファルシフィケーションが必要な場合(例えば、複合ルールや例外ラデンルール)に有効であるが、単純な概念では不十分である。
高い診断境界クエリは、生成元が無効または過剰に特定のプログラムを生成する領域に向かって後部を駆動し、粒子近似におけるサポートミスマッチトラップを生成する。
PTSは情報サブ最適であるが、"セーフ"なクエリを選択することで提案の妥当性を維持する傾向があり、単純なルールにより早く収束する。
以上の結果から,「確認バイアス」は認知的誤りではなく,人間の思考に特徴的な疎明でオープンな仮説空間において,抽出可能な推論を維持するための合理的適応である可能性が示唆された。
関連論文リスト
- The Silent Scholar Problem: A Probabilistic Framework for Breaking Epistemic Asymmetry in LLM Agents [0.6117371161379209]
本稿では,エージェントに双方向知識交換のための非構造的動機を与える形式的確率的枠組みを提案する。
これらの蓄積された信念状態が、人間フィードバックからの強化学習(RLHF)と監視ファインチューニング(SFT)のための高品質データフィルタの検証可能な報酬信号としてどのように機能するかを示す。
シミュレーションの結果、この不確実性駆動型戦略が異種環境におけるランダムベースラインを著しく上回ることを示した。
論文 参考訳(メタデータ) (2025-12-24T02:02:25Z) - Latent Chain-of-Thought for Visual Reasoning [53.541579327424046]
大型視覚言語モデル(LVLM)の解釈可能性および信頼性向上には,チェーン・オブ・シント(CoT)推論が不可欠である
我々は,LVLMにおける推論を後部推論として再構成し,償却変分推論に基づくスケーラブルなトレーニングアルゴリズムを提案する。
提案手法は,7つの推論ベンチマークにおいて,最先端のLVLMを強化することを実証的に実証する。
論文 参考訳(メタデータ) (2025-10-27T23:10:06Z) - The Consistency Hypothesis in Uncertainty Quantification for Large Language Models [22.60039074743706]
モデルAPIアクセスのみに依存するブラックボックス不確実性定量化(UQ)手法は,その実用的メリットから人気を博している。
本稿では,自信の代用として生成整合性を利用するUQ手法の背景にある暗黙的な仮定について検討する。
信頼度推定のための世代間類似性を集約するデータフリーなブラックボックスUQ手法を提案する。
論文 参考訳(メタデータ) (2025-06-27T01:53:15Z) - PredictaBoard: Benchmarking LLM Score Predictability [50.47497036981544]
大きな言語モデル(LLM)は予測不能に失敗することが多い。
これは、安全なデプロイメントを保証する上で、大きな課題となる。
PredictaBoardは,新しいベンチマークフレームワークである。
論文 参考訳(メタデータ) (2025-02-20T10:52:38Z) - Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale [53.152460508207184]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-02T05:53:22Z) - Learnability, Sample Complexity, and Hypothesis Class Complexity for
Regression Models [10.66048003460524]
この研究はPACの基礎に触発され、既存の回帰学習問題に動機付けられている。
提案手法はEpsilon-Confidence Aough Correct (epsilon CoAC)で示され、Kullback Leibler divergence(相対エントロピー)を利用する。
これにより、学習者は異なる複雑性順序の仮説クラスを比較でき、それらの中から最小のエプシロンを最適に選択できる。
論文 参考訳(メタデータ) (2023-03-28T15:59:12Z) - Beyond Distributional Hypothesis: Let Language Models Learn Meaning-Text
Correspondence [45.9949173746044]
大規模事前学習言語モデル (PLM) が論理否定特性 (LNP) を満たさないことを示す。
そこで本研究では,意味テキスト対応を直接学習するための新しい中間訓練課題である「意味マッチング」を提案する。
このタスクにより、PLMは語彙意味情報を学習することができる。
論文 参考訳(メタデータ) (2022-05-08T08:37:36Z) - L2R2: Leveraging Ranking for Abductive Reasoning [65.40375542988416]
学習システムの帰納的推論能力を評価するために,帰納的自然言語推論タスク(alpha$NLI)を提案する。
新たな$L2R2$アプローチは、Learning-to-rankフレームワークの下で提案されている。
ARTデータセットの実験は、公開リーダボードの最先端に到達します。
論文 参考訳(メタデータ) (2020-05-22T15:01:23Z) - Stopping criterion for active learning based on deterministic
generalization bounds [4.518012967046983]
本稿では,アクティブな学習を自動的に停止するための基準を提案する。
提案した停止基準は、期待される一般化誤差と仮説テストの違いに基づいている。
人工データセットと実データの両方を用いた実験により,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-05-15T08:15:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。