論文の概要: Near-Optimal Data Source Selection for Bayesian Learning
- arxiv url: http://arxiv.org/abs/2011.10712v2
- Date: Sun, 2 May 2021 15:46:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 23:48:20.311458
- Title: Near-Optimal Data Source Selection for Bayesian Learning
- Title(参考訳): ベイズ学習のための近最適データソース選択
- Authors: Lintao Ye, Aritra Mitra and Shreyas Sundaram
- Abstract要約: 本研究では,ベイズ学習における基本的問題として,選択したデータストリームに基づいて一定の学習性能を達成しつつ,最小コストで複数のデータソースを選択することを目的とする。
本研究では,データソース選択問題を文献で研究した部分モジュラー集合被覆問題の事例に変換することができることを示す。
- 参考スコア(独自算出の注目度): 1.625213292350038
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a fundamental problem in Bayesian learning, where the goal is to
select a set of data sources with minimum cost while achieving a certain
learning performance based on the data streams provided by the selected data
sources. First, we show that the data source selection problem for Bayesian
learning is NP-hard. We then show that the data source selection problem can be
transformed into an instance of the submodular set covering problem studied in
the literature, and provide a standard greedy algorithm to solve the data
source selection problem with provable performance guarantees. Next, we propose
a fast greedy algorithm that improves the running times of the standard greedy
algorithm, while achieving performance guarantees that are comparable to those
of the standard greedy algorithm. The fast greedy algorithm can also be applied
to solve the general submodular set covering problem with performance
guarantees. Finally, we validate the theoretical results using numerical
examples, and show that the greedy algorithms work well in practice.
- Abstract(参考訳): 本研究では,ベイズ学習における基本的問題として,選択したデータストリームに基づいて一定の学習性能を達成しつつ,最小コストで複数のデータソースを選択することを目的とする。
まず,ベイズ学習におけるデータソース選択問題はNPハードであることを示す。
そこで,本研究では,データソース選択問題を文献で研究した部分モジュラー集合被覆問題の事例に変換できることを示し,検証可能な性能保証によるデータソース選択問題の解法として,標準グリーディアルゴリズムを提案する。
次に,標準グリードアルゴリズムと同等の性能保証を達成しつつ,標準グリードアルゴリズムの実行時間を改善する高速グリードアルゴリズムを提案する。
高速グリーディアルゴリズムは、性能保証の問題をカバーする一般的な部分モジュラー集合を解くためにも適用できる。
最後に, 数値例を用いて理論的結果を検証し, グリードアルゴリズムが実際にうまく動作することを示す。
関連論文リスト
- Meta-Learning from Learning Curves for Budget-Limited Algorithm Selection [11.409496019407067]
予算制限のシナリオでは、アルゴリズム候補を慎重に選択し、それを訓練するための予算を割り当てることが不可欠である。
本稿では,エージェントが十分に訓練されるまで待たずに,最も有望なアルゴリズムを学習する過程において,エージェントが選択しなければならない新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-10-10T08:09:58Z) - Training Greedy Policy for Proposal Batch Selection in Expensive Multi-Objective Combinatorial Optimization [52.80408805368928]
本稿では,バッチ取得のための新しいグリーディ型サブセット選択アルゴリズムを提案する。
赤蛍光タンパク質に関する実験により,提案手法は1.69倍少ないクエリでベースライン性能を達成できることが判明した。
論文 参考訳(メタデータ) (2024-06-21T05:57:08Z) - An Efficient Off-Policy Reinforcement Learning Algorithm for the
Continuous-Time LQR Problem [2.512827436728378]
システムから測定した入力状態データのみを用いて,リアルタイムLQR問題を解決するために,非政治強化学習アルゴリズムが設計された。
この持続的に励起されたデータを用いて、我々のアルゴリズムにおける行列方程式の解は存在し、各反復において一意であることを保証する。
論文 参考訳(メタデータ) (2023-03-31T06:30:23Z) - Optimal Data Selection: An Online Distributed View [61.31708750038692]
この問題のオンライン版と分散版のアルゴリズムを開発する。
ランダム選択法は, ランダム選択法よりも5~20%高い性能を示した。
ImageNet と MNIST の学習タスクにおいて、我々の選択方法はランダム選択よりも5-20% 高い性能を示した。
論文 参考訳(メタデータ) (2022-01-25T18:56:16Z) - Sample Selection for Fair and Robust Training [28.94276265328868]
公平でロバストなトレーニングのためのサンプル選択に基づくアルゴリズムを提案する。
提案アルゴリズムは,最先端技術に匹敵する公平性と堅牢性が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T07:17:29Z) - Machine Learning for Online Algorithm Selection under Censored Feedback [71.6879432974126]
オンラインアルゴリズム選択(OAS)では、アルゴリズム問題クラスのインスタンスがエージェントに次々に提示され、エージェントは、固定された候補アルゴリズムセットから、おそらく最高のアルゴリズムを迅速に選択する必要がある。
SAT(Satisfiability)のような決定問題に対して、品質は一般的にアルゴリズムのランタイムを指す。
本研究では,OASのマルチアームバンディットアルゴリズムを再検討し,この問題に対処する能力について議論する。
ランタイム指向の損失に適応し、時間的地平線に依存しない空間的・時間的複雑さを維持しながら、部分的に検閲されたデータを可能にする。
論文 参考訳(メタデータ) (2021-09-13T18:10:52Z) - Learning to Hash Robustly, with Guarantees [79.68057056103014]
本稿では,理論的アルゴリズムと本質的に一致する最悪ケース保証を持つハミング空間のためのNSアルゴリズムを設計する。
理論的にも実用的にも、与えられたデータセットに対してアルゴリズムが最適化できる能力を評価する。
我々のアルゴリズムは、MNISTおよびImageNetデータセットに対する最悪のパフォーマンスのクエリを、1.8倍と2.1倍の精度でリコールする。
論文 参考訳(メタデータ) (2021-08-11T20:21:30Z) - Low Budget Active Learning via Wasserstein Distance: An Integer
Programming Approach [81.19737119343438]
アクティブラーニング(Active Learning)とは、ラベル付きデータプールのコアサブセットをラベルに選択することで、ラベル付きデータでモデルをトレーニングするプロセスである。
本稿では,未ラベルプールからワッサーシュタイン距離を最小化するコアセットを選択するための新しい整数最適化問題を提案する。
我々の戦略は、ラベルのないプールで教師なし学習によって得られる高品質な潜伏的特徴を必要とする。
論文 参考訳(メタデータ) (2021-06-05T21:25:03Z) - Run2Survive: A Decision-theoretic Approach to Algorithm Selection based
on Survival Analysis [75.64261155172856]
生存分析(SA)は、自然に検閲されたデータをサポートし、アルゴリズムランタイムの分散モデルを学習するためにそのようなデータを使用する適切な方法を提供する。
我々は、アルゴリズム選択に対する洗練された決定論的アプローチの基礎として、そのようなモデルを活用し、Run2Surviveを疑う。
標準ベンチマークASlibによる広範な実験では、我々のアプローチは競争力が高く、多くの場合、最先端のASアプローチよりも優れていることが示されている。
論文 参考訳(メタデータ) (2020-07-06T15:20:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。