論文の概要: Evaluation of Active Feature Acquisition Methods for Time-varying
Feature Settings
- arxiv url: http://arxiv.org/abs/2312.01530v2
- Date: Thu, 7 Dec 2023 18:47:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 11:31:32.418004
- Title: Evaluation of Active Feature Acquisition Methods for Time-varying
Feature Settings
- Title(参考訳): 時間変化特徴設定のためのアクティブ特徴獲得手法の評価
- Authors: Henrik von Kleist, Alireza Zamanian, Ilya Shpitser, Narges Ahmidi
- Abstract要約: 機械学習の手法は、入力機能が無償で利用できると仮定することが多い。
機能の取得が高価または有害な可能性がある医療のような領域では、機能の取得と予測コストのバランスをとる必要がある。
能動的特徴獲得性能評価(AFAPE)の問題点について述べる。
- 参考スコア(独自算出の注目度): 6.645033437894859
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning methods often assume input features are available at no
cost. However, in domains like healthcare, where acquiring features could be
expensive or harmful, it is necessary to balance a feature's acquisition cost
against its predictive value. The task of training an AI agent to decide which
features to acquire is called active feature acquisition (AFA). By deploying an
AFA agent, we effectively alter the acquisition strategy and trigger a
distribution shift. To safely deploy AFA agents under this distribution shift,
we present the problem of active feature acquisition performance evaluation
(AFAPE). We examine AFAPE under i) a no direct effect (NDE) assumption, stating
that acquisitions don't affect the underlying feature values; and ii) a no
unobserved confounding (NUC) assumption, stating that retrospective feature
acquisition decisions were only based on observed features. We show that one
can apply offline reinforcement learning under the NUC assumption and missing
data methods under the NDE assumption. When NUC and NDE hold, we propose a
novel semi-offline reinforcement learning framework, which requires a weaker
positivity assumption and yields more data-efficient estimators. We introduce
three novel estimators: a direct method (DM), an inverse probability weighting
(IPW), and a double reinforcement learning (DRL) estimator.
- Abstract(参考訳): 機械学習の手法は、入力機能が無償で利用できると仮定することが多い。
しかし、機能の取得が高価または有害な分野である医療のような領域では、機能の取得コストと予測値とのバランスをとる必要がある。
取得する機能を決定するためにAIエージェントを訓練するタスクは、アクティブ機能取得(AFA)と呼ばれる。
AFAエージェントをデプロイすることで,買収戦略を効果的に変更し,流通シフトを引き起こす。
この分散シフトの下でAFAエージェントを安全にデプロイするために、アクティブな特徴取得性能評価(AFAPE)の問題を示す。
AFAPEについて検討する
一 買収が基礎となる特徴値に影響を及ぼさないという直接的効果(NDE)の仮定
二 振り返り特徴取得の決定は、観察された特徴に基づいてのみ行われるという、観測不能な確証(NUC)の仮定。
NUCの仮定ではオフライン強化学習を適用でき、NDEの仮定ではデータ手法が欠落している。
NUC と NDE が成り立つと、より弱い正の仮定を必要とする新しい半オフライン強化学習フレームワークが提案され、よりデータ効率のよい推定器が生成される。
直接法(DM)、逆確率重み付け(IPW)、二重強化学習(DRL)の3つの新しい推定手法を紹介する。
関連論文リスト
- Evaluation of Active Feature Acquisition Methods for Static Feature
Settings [6.645033437894859]
能動機能取得性能評価のための半オフライン強化学習フレームワーク(AFAPE)を提案する。
本稿では,AFAPE問題を時間不変な静的な特徴設定に適用し,拡張する。
半オフラインRLフレームワーク内の新しい逆確率重み付け(IPW)、直接法(DM)、二重強化学習(DRL)推定器を導出し、適応する。
論文 参考訳(メタデータ) (2023-12-06T17:07:42Z) - Augmenting Unsupervised Reinforcement Learning with Self-Reference [63.68018737038331]
人間は、新しいタスクを学ぶ際に、過去の経験を明確に表現する能力を持っている。
本稿では,歴史情報を活用するためのアドオンモジュールとして,自己参照(SR)アプローチを提案する。
提案手法は,非教師付き強化学習ベンチマークにおけるIQM(Interquartile Mean)性能と最適ギャップ削減の両面から,最先端の成果を実現する。
論文 参考訳(メタデータ) (2023-11-16T09:07:34Z) - Acquisition Conditioned Oracle for Nongreedy Active Feature Acquisition [16.350351668269415]
能動的特徴獲得手法(AFA)の開発
私たちは、新しい非パラメトリックオラクルベースのアプローチで、多くの課題を回避できることを示します。
論文 参考訳(メタデータ) (2023-02-27T17:02:11Z) - Differential Assessment of Black-Box AI Agents [29.98710357871698]
従来知られていたモデルから逸脱したブラックボックスAIエージェントを差分評価する手法を提案する。
我々は,漂流エージェントの現在の挙動と初期モデルの知識の疎度な観察を利用して,アクティブなクエリポリシーを生成する。
経験的評価は、エージェントモデルをスクラッチから再学習するよりも、我々のアプローチの方がはるかに効率的であることを示している。
論文 参考訳(メタデータ) (2022-03-24T17:48:58Z) - Domain-Adjusted Regression or: ERM May Already Learn Features Sufficient
for Out-of-Distribution Generalization [52.7137956951533]
既存の特徴から予測器を学習するためのよりシンプルな手法を考案することは、将来の研究にとって有望な方向である、と我々は主張する。
本稿では,線形予測器を学習するための凸目標である領域調整回帰(DARE)を紹介する。
自然モデルの下では、DARE解が制限されたテスト分布の集合に対する最小最適予測器であることを証明する。
論文 参考訳(メタデータ) (2022-02-14T16:42:16Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Direct Advantage Estimation [63.52264764099532]
予測されるリターンは、学習を遅くする可能性のある望ましくない方法でポリシーに依存する可能性があることを示します。
本稿では,優位関数をモデル化し,データから直接推定する手法として,DAE(Direct Advantage Estimation)を提案する。
望むなら、値関数をDAEにシームレスに統合して、時間差学習と同様の方法で更新することもできる。
論文 参考訳(メタデータ) (2021-09-13T16:09:31Z) - Uncertainty Weighted Actor-Critic for Offline Reinforcement Learning [63.53407136812255]
オフライン強化学習は、探索を必要とせずに、事前に収集された静的データセットから効果的なポリシーを学ぶことを約束する。
既存のQラーニングとアクター批判に基づくオフポリティクスRLアルゴリズムは、アウト・オブ・ディストリビューション(OOD)アクションや状態からのブートストラップ時に失敗する。
我々は,OOD状態-動作ペアを検出し,トレーニング目標への貢献度を下げるアルゴリズムであるUncertainty Weighted Actor-Critic (UWAC)を提案する。
論文 参考訳(メタデータ) (2021-05-17T20:16:46Z) - Active Feature Acquisition with Generative Surrogate Models [11.655069211977464]
本研究では,アクティブ機能獲得(AFA)を行うモデルについて検討し,未観測機能に対する環境問合せを行う。
我々の研究は、AFA問題を生成的モデリングタスクとして根底にあるマルコフ決定プロセス(MDP)を再構築する。
本稿では,入力特徴間の依存関係を捕捉し,取得から得られる潜在的な情報を評価する生成代理モデル(GSM)の学習を提案する。
論文 参考訳(メタデータ) (2020-10-06T02:10:06Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。