論文の概要: Learning-To-Measure: In-context Active Feature Acquisition
- arxiv url: http://arxiv.org/abs/2510.12624v1
- Date: Tue, 14 Oct 2025 15:23:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.367
- Title: Learning-To-Measure: In-context Active Feature Acquisition
- Title(参考訳): 学習と測定: コンテキスト内アクティブな特徴獲得
- Authors: Yuta Kobayashi, Zilin Jing, Jiayu Yao, Hongseok Namkoong, Shalmali Joshi,
- Abstract要約: 我々はメタAFA問題を定式化し、そこでは様々なタスクで獲得ポリシーを学習することを目的としている。
本稿では,未確認タスクに対する信頼性の高い不確実性定量化と,不確実性誘導機能獲得エージェントであるL2Mを紹介する。
L2Mは、振り返り不足のあるデータセットを直接操作し、メタAFAタスクをコンテキスト内で実行する。
- 参考スコア(独自算出の注目度): 10.604433053831405
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active feature acquisition (AFA) is a sequential decision-making problem where the goal is to improve model performance for test instances by adaptively selecting which features to acquire. In practice, AFA methods often learn from retrospective data with systematic missingness in the features and limited task-specific labels. Most prior work addresses acquisition for a single predetermined task, limiting scalability. To address this limitation, we formalize the meta-AFA problem, where the goal is to learn acquisition policies across various tasks. We introduce Learning-to-Measure (L2M), which consists of i) reliable uncertainty quantification over unseen tasks, and ii) an uncertainty-guided greedy feature acquisition agent that maximizes conditional mutual information. We demonstrate a sequence-modeling or autoregressive pre-training approach that underpins reliable uncertainty quantification for tasks with arbitrary missingness. L2M operates directly on datasets with retrospective missingness and performs the meta-AFA task in-context, eliminating per-task retraining. Across synthetic and real-world tabular benchmarks, L2M matches or surpasses task-specific baselines, particularly under scarce labels and high missingness.
- Abstract(参考訳): アクティブ機能取得(AFA)は、どの機能を取得するかを適応的に選択することで、テストインスタンスのモデルパフォーマンスを改善することを目標とするシーケンシャルな意思決定問題である。
実際には、AFAメソッドは、機能やタスク固有のラベルに体系的な欠如がある振り返りデータから学ぶことが多い。
それまでの作業のほとんどは、1つの所定のタスクの取得に対処し、スケーラビリティを制限します。
この制限に対処するため、メタAFA問題を定式化し、そこでは、様々なタスクで獲得ポリシーを学習することを目的としている。
我々はL2M(Learning-to-Measure)を紹介する。
一 目に見えない作業に対する確実な不確実性定量化及び
二 条件付き相互情報を最大化する不確実性誘導欲求特徴取得剤
任意の欠落のあるタスクに対する確実な不確実性定量化の基盤となる,シーケンスモデリングあるいは自己回帰事前学習手法を実証する。
L2Mは、振り返り不足のあるデータセットを直接操作し、メタAFAタスクをコンテキスト内で実行する。
合成および実世界のグラフベンチマーク全体において、L2Mはタスク固有のベースライン、特に少ないラベルと高い不足の下で一致または超える。
関連論文リスト
- Learning Task Representations from In-Context Learning [73.72066284711462]
大規模言語モデル(LLM)は、文脈内学習において顕著な習熟性を示している。
ICLプロンプトにおけるタスク情報をアテンションヘッドの関数として符号化するための自動定式化を導入する。
提案手法の有効性は,最後の隠れ状態の分布と最適に実行されたテキスト内学習モデルとの整合性に起因していることを示す。
論文 参考訳(メタデータ) (2025-02-08T00:16:44Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - TRACE: A Comprehensive Benchmark for Continual Learning in Large
Language Models [52.734140807634624]
調整された大規模言語モデル(LLM)は、タスク解決、指示に従うこと、安全性を確保することにおいて、例外的な能力を示す。
既存の連続学習ベンチマークでは、LLMをリードする上で十分な課題が欠如している。
LLMにおける継続学習を評価するための新しいベンチマークであるTRACEを紹介する。
論文 参考訳(メタデータ) (2023-10-10T16:38:49Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Learning to generate imaginary tasks for improving generalization in
meta-learning [12.635773307074022]
既存のベンチマークにおけるメタ学習の成功は、メタトレーニングタスクの分布がメタテストタスクをカバーするという仮定に基づいて予測される。
最近のソリューションではメタトレーニングタスクの強化が追求されているが、正確なタスクと十分な想像上のタスクの両方を生成することは、まだ未解決の問題である。
本稿では,タスクアップサンプリングネットワークを通じてタスク表現からメタ学習タスクをアップサンプリングする手法を提案する。さらに,タスクアップサンプリング(ATU)と呼ばれるアプローチにより,タスクを最大化することで,最新のメタラーナーに最大限貢献できるタスクを生成する。
論文 参考訳(メタデータ) (2022-06-09T08:21:05Z) - Task-Agnostic Continual Reinforcement Learning: Gaining Insights and
Overcoming Challenges [27.474011433615317]
連続学習(CL)は、一連のタスクから学習するモデルやエージェントの開発を可能にする。
タスクに依存しないCLとマルチタスク(MTL)エージェントのパフォーマンス差に寄与する要因について検討する。
論文 参考訳(メタデータ) (2022-05-28T17:59:00Z) - Conditional Channel Gated Networks for Task-Aware Continual Learning [44.894710899300435]
畳み込みニューラルネットワークは、一連の学習問題に最適化された場合、破滅的な忘れを経験する。
本稿では,この問題に条件付き計算で対処する新しい枠組みを提案する。
提案手法を4つの連続学習データセットで検証する。
論文 参考訳(メタデータ) (2020-03-31T19:35:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。