論文の概要: Acquisition Conditioned Oracle for Nongreedy Active Feature Acquisition
- arxiv url: http://arxiv.org/abs/2302.13960v1
- Date: Mon, 27 Feb 2023 17:02:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 14:42:34.562445
- Title: Acquisition Conditioned Oracle for Nongreedy Active Feature Acquisition
- Title(参考訳): oracleが非親密な機能獲得で買収条件を満たした
- Authors: Michael Valancius, Max Lennon, Junier Oliva
- Abstract要約: 能動的特徴獲得手法(AFA)の開発
私たちは、新しい非パラメトリックオラクルベースのアプローチで、多くの課題を回避できることを示します。
- 参考スコア(独自算出の注目度): 16.350351668269415
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop novel methodology for active feature acquisition (AFA), the study
of how to sequentially acquire a dynamic (on a per instance basis) subset of
features that minimizes acquisition costs whilst still yielding accurate
predictions. The AFA framework can be useful in a myriad of domains, including
health care applications where the cost of acquiring additional features for a
patient (in terms of time, money, risk, etc.) can be weighed against the
expected improvement to diagnostic performance. Previous approaches for AFA
have employed either: deep learning RL techniques, which have difficulty
training policies in the AFA MDP due to sparse rewards and a complicated action
space; deep learning surrogate generative models, which require modeling
complicated multidimensional conditional distributions; or greedy policies,
which fail to account for how joint feature acquisitions can be informative
together for better predictions. In this work we show that we can bypass many
of these challenges with a novel, nonparametric oracle based approach, which we
coin the acquisition conditioned oracle (ACO). Extensive experiments show the
superiority of the ACO to state-of-the-art AFA methods when acquiring features
for both predictions and general decision-making.
- Abstract(参考訳): 本研究では, 能動的特徴獲得(AFA)のための新しい手法を開発し, 精度を保ちながら, 獲得コストを最小化する特徴の動的(インスタンス単位)サブセットを逐次取得する方法について検討する。
AFAフレームワークは、患者のための追加機能(時間、お金、リスクなど)を取得するコストを、診断性能の向上に対する期待値と比較できる医療アプリケーションを含む、無数の領域で有用である。
より少ない報酬と複雑な行動空間により、AFA MDPのトレーニング方針が困難であるディープラーニングRL手法、複雑な多次元条件分布のモデリングを必要とする深層学習サロゲート生成モデル、そして、より優れた予測のために、共同特徴獲得がどのように情報化できるかを説明できない欲求政策のいずれかが、AFAのこれまでのアプローチとして採用されてきた。
本研究では,これらの課題の多くを,獲得条件付きオラクル(ACO)という新しい非パラメトリックオラクルベースのアプローチで回避できることを示す。
広範な実験により、予測と一般的な意思決定の両方の特徴を取得する場合、acoの最先端のafa法に対する優位性が示された。
関連論文リスト
- Learning Off-policy with Model-based Intrinsic Motivation For Active Online Exploration [15.463313629574111]
本稿では,連続制御タスクにおけるサンプル効率の高い探索手法について検討する。
本稿では,予測モデルと非政治学習要素を組み込んだRLアルゴリズムを提案する。
パラメーターのオーバーヘッドを発生させずに本質的な報酬を導き出す。
論文 参考訳(メタデータ) (2024-03-31T11:39:11Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - Evaluation of Active Feature Acquisition Methods for Time-varying Feature Settings [6.082810456767599]
機械学習の手法は、入力機能が無償で利用できると仮定することが多い。
機能性の獲得が有害な分野である医療のような領域では、機能の獲得と予測的肯定性とのバランスをとる必要がある。
能動的特徴獲得性能評価(AFAPE)の問題点について述べる。
論文 参考訳(メタデータ) (2023-12-03T23:08:29Z) - Improving Generalization of Alignment with Human Preferences through
Group Invariant Learning [56.19242260613749]
Reinforcement Learning from Human Feedback (RLHF) は、人間の好みに合わせた反応の生成を可能にする。
以前の研究は、強化学習(RL)がしばしばショートカットを利用して高い報酬を獲得し、挑戦的なサンプルを見落としていることを示している。
本稿では,複数のデータグループやドメインにまたがる一貫したポリシをRLで学習する,新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-18T13:54:15Z) - Secrets of RLHF in Large Language Models Part I: PPO [81.01936993929127]
大規模言語モデル (LLMs) は、人工知能の進歩のためのブループリントを定式化した。
人間のフィードバックによる強化学習(RLHF)がこの追求を支える重要な技術パラダイムとして出現する。
本稿では、RLHFの枠組みを解明し、PPOの内部構造を再評価し、PPOアルゴリズムを構成する部分が政策エージェントの訓練にどのように影響するかを考察する。
論文 参考訳(メタデータ) (2023-07-11T01:55:24Z) - Discovering Hierarchical Achievements in Reinforcement Learning via
Contrastive Learning [17.28280896937486]
本稿では, エージェントが次の達成を予測する能力を高めることを目的とした, 達成蒸留と呼ばれる新しいコントラスト学習手法を提案する。
提案手法は,階層的な成果を見出すための強力な能力を示し,挑戦的なクラフト環境における最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-07-07T09:47:15Z) - Improved Regret for Efficient Online Reinforcement Learning with Linear
Function Approximation [69.0695698566235]
線形関数近似による強化学習と,コスト関数の逆変化について検討した。
本稿では,未知のダイナミクスと帯域幅フィードバックの一般設定に挑戦する,計算効率のよいポリシ最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-30T17:26:39Z) - Active Surrogate Estimators: An Active Learning Approach to
Label-Efficient Model Evaluation [59.7305309038676]
モデル評価のためのアクティブサロゲート推定器(ASE)を提案する。
ASEは現在の最先端技術よりもラベル効率が高いことが分かりました。
論文 参考訳(メタデータ) (2022-02-14T17:15:18Z) - Towards Robust Active Feature Acquisition [14.785570635390744]
アクティブ機能獲得(AFA)モデルは、少数の候補機能に対処し、大きな機能領域へのスケーリングが困難である。
我々は,現在のAFAアプローチを進めるためのいくつかの手法を提案する。
本フレームワークは階層的な取得ポリシを用いて,多数の機能を容易に扱えるとともに,OOD検出器の助けを借りてOOD入力に対してより堅牢である。
論文 参考訳(メタデータ) (2021-07-09T01:06:13Z) - Reinforcement Learning with Efficient Active Feature Acquisition [59.91808801541007]
実生活では、情報取得は患者の医療検査に該当する可能性がある。
本稿では,アクティブな特徴獲得ポリシーを学習するモデルに基づく強化学習フレームワークを提案する。
この成功の鍵は、部分的に観察された状態から高品質な表現を学ぶ新しい逐次変分自動エンコーダである。
論文 参考訳(メタデータ) (2020-11-02T08:46:27Z) - Active Feature Acquisition with Generative Surrogate Models [11.655069211977464]
本研究では,アクティブ機能獲得(AFA)を行うモデルについて検討し,未観測機能に対する環境問合せを行う。
我々の研究は、AFA問題を生成的モデリングタスクとして根底にあるマルコフ決定プロセス(MDP)を再構築する。
本稿では,入力特徴間の依存関係を捕捉し,取得から得られる潜在的な情報を評価する生成代理モデル(GSM)の学習を提案する。
論文 参考訳(メタデータ) (2020-10-06T02:10:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。