論文の概要: How to Select Which Active Learning Strategy is Best Suited for Your
Specific Problem and Budget
- arxiv url: http://arxiv.org/abs/2306.03543v1
- Date: Tue, 6 Jun 2023 09:44:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 16:15:19.776805
- Title: How to Select Which Active Learning Strategy is Best Suited for Your
Specific Problem and Budget
- Title(参考訳): 特定の問題や予算に最適なアクティブラーニング戦略を選択する方法
- Authors: Guy Hacohen, Daphna Weinshall
- Abstract要約: アクティブラーニング(AL)では、学習者は、いくつかの予算制約の下でラベルを問うためにラベルのない例を積極的に選択する。
本稿では,各予算の最良の戦略を動的に識別する実用的なデリバティブベース手法を提案する。
その結果,様々な予算やコンピュータビジョンタスクにまたがるアプローチの有効性が示された。
- 参考スコア(独自算出の注目度): 10.558951653323286
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In Active Learning (AL), a learner actively chooses which unlabeled examples
to query for labels from an oracle, under some budget constraints. Different AL
query strategies are more suited to different problems and budgets. Therefore,
in practice, knowing in advance which AL strategy is most suited for the
problem at hand remains an open problem. To tackle this challenge, we propose a
practical derivative-based method that dynamically identifies the best strategy
for each budget. We provide theoretical analysis of a simplified case to
motivate our approach and build intuition. We then introduce a method to
dynamically select an AL strategy based on the specific problem and budget.
Empirical results showcase the effectiveness of our approach across diverse
budgets and computer vision tasks.
- Abstract(参考訳): アクティブラーニング(AL)では、学習者は、いくつかの予算制約の下でラベルを問うためにラベルのない例を積極的に選択する。
異なるalクエリ戦略は、さまざまな問題や予算に適している。
したがって、実際には、手前の問題に最も適したAL戦略を事前に知ることは、未解決の問題である。
そこで本研究では,各予算の最適戦略を動的に識別する実用的なデリバティブベース手法を提案する。
我々は、我々のアプローチを動機づけ、直観を構築するための簡易なケースの理論分析を提供する。
次に,特定の問題と予算に基づいてAL戦略を動的に選択する手法を提案する。
その結果,様々な予算やコンピュータビジョンタスクにまたがるアプローチの有効性が示された。
関連論文リスト
- SMART: Self-learning Meta-strategy Agent for Reasoning Tasks [44.45037694899524]
SMART(Self-learning Meta-Strategy Agent for Reasoning Tasks)は、LMが様々な推論タスクの最も効果的な戦略を学習し、選択できる新しいフレームワークである。
我々は、戦略選択プロセスをマルコフ決定プロセスとしてモデル化し、強化学習による継続的自己改善を活用する。
実験の結果,SMARTは外部ガイダンスを使わずに最適な戦略を選択する能力を大幅に向上することが示された。
論文 参考訳(メタデータ) (2024-10-21T15:55:04Z) - Deep Reinforcement Learning for Online Optimal Execution Strategies [49.1574468325115]
本稿では,動的な金融市場における非マルコフ的最適実行戦略の学習に挑戦する。
我々は,Deep Deterministic Policy Gradient(DDPG)に基づく新しいアクター批判アルゴリズムを提案する。
提案アルゴリズムは最適実行戦略の近似に成功していることを示す。
論文 参考訳(メタデータ) (2024-10-17T12:38:08Z) - Optimising Calls to Large Language Models with Uncertainty-Based Two-Tier Selection [80.63946798650653]
決定は、より優れた性能を持つ大型LCMを使うか、より少ないコストで使用するかに重点を置いている。
我々は,LLMの世代間不確実性のみを意思決定基準として,より単純な解を提案する。
実験の結果、この単純な解はコストと性能を最適にバランスさせ、27の試験装置中25の既存手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-05-03T14:38:59Z) - StrategyLLM: Large Language Models as Strategy Generators, Executors, Optimizers, and Evaluators for Problem Solving [76.5322280307861]
StrategyLLM は LLM が帰納的推論、特定のタスクインスタンスからの一般的な戦略の導出、帰納的推論を可能にし、これらの一般的な戦略を特定のタスク例に適用し、一般化可能で一貫した数発のプロンプトを構築する。
実験の結果、StrategyLLMは、数学推論(34.2%$rightarrow$38.8%)、コモンセンス推論(70.3%$rightarrow$72.5%)、アルゴリズム推論(73.7%$rightarrow$85.0)を含む、4つの難しいタスクにまたがる13のデータセットに対して、人間によるアノテートソリューションを必要とする競争ベースラインのCoT-SCよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-11-15T09:18:09Z) - Label Budget Allocation in Multi-Task Learning [61.12008399759143]
マルチタスク学習では、関連するタスクが互いに情報を提供し、全体的なパフォーマンスを改善する。
最適なマルチタスクパフォーマンスを実現するために,ラベル予算をさまざまなタスクに割り当てるには,どうすればよいのか?
我々は,マルチタスク学習において,ラベル予算配分問題を初めて提案し,正式に定義する。
論文 参考訳(メタデータ) (2023-08-24T17:38:14Z) - ALE: A Simulation-Based Active Learning Evaluation Framework for the
Parameter-Driven Comparison of Query Strategies for NLP [3.024761040393842]
Active Learning (AL)は、後続のサンプルやランダムなサンプルではなく、次にアノテータに有望なデータポイントを提案する。
この方法は、モデルパフォーマンスを維持しながらアノテーションの労力を節約することを目的としている。
NLPにおけるAL戦略の比較評価のための再現可能な能動学習評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-01T10:42:11Z) - Sample-Efficient Multi-Objective Learning via Generalized Policy
Improvement Prioritization [8.836422771217084]
マルチオブジェクト強化学習(MORL)アルゴリズムは、エージェントが異なる好みを持つ可能性のあるシーケンシャルな決定問題に対処する。
本稿では、一般化政策改善(GPI)を用いて、原則的、正式に派生した優先順位付けスキームを定義する新しいアルゴリズムを提案する。
実験により,本手法は多目的タスクの挑戦において,最先端のMORLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-01-18T20:54:40Z) - DGPO: Discovering Multiple Strategies with Diversity-Guided Policy
Optimization [34.40615558867965]
与えられたタスクを解決するための複数の戦略を探索するオンラインアルゴリズムを提案する。
以前の作業とは異なり、単一の実行でトレーニングされた共有ポリシネットワークでこれを実現する。
実験結果から,本手法は多種多様な強化学習課題における多様な戦略を効果的に発見できることが示唆された。
論文 参考訳(メタデータ) (2022-07-12T15:57:55Z) - Adversarial Option-Aware Hierarchical Imitation Learning [89.92994158193237]
提案するOption-GAILは,遠隔地平線でスキルを学ぶための新しい手法である。
Option-GAILの鍵となる考え方は、タスク階層をオプションでモデル化し、生成的敵最適化を通じてポリシーを訓練することである。
実験によると、Option-GAILはさまざまなタスクにおいて、他のタスクよりも一貫してパフォーマンスが向上している。
論文 参考訳(メタデータ) (2021-06-10T06:42:05Z) - Universal Trading for Order Execution with Oracle Policy Distillation [99.57416828489568]
本稿では,不完全な市場状態と注文実行のための最適な行動シーケンスとのギャップを埋める,新たなユニバーサル取引ポリシー最適化フレームワークを提案する。
本研究の枠組みは,完全情報を持つ託宣教師による実践的最適実行に向けて,共通政策の学習を指導する上で有効であることを示す。
論文 参考訳(メタデータ) (2021-01-28T05:52:18Z) - Toward Optimal Probabilistic Active Learning Using a Bayesian Approach [4.380488084997317]
アクティブラーニングは、コストの高いラベリングリソースを効率よく効果的に割り当てることで、ラベリングコストを削減することを目的としている。
提案したモデルにおける既存の選択戦略を再構築することにより、どの側面が現在の最先端に包含されていないかを説明することができる。
論文 参考訳(メタデータ) (2020-06-02T15:59:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。