論文の概要: Time-Constrained Learning
- arxiv url: http://arxiv.org/abs/2202.01913v1
- Date: Fri, 4 Feb 2022 00:15:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 01:41:56.740025
- Title: Time-Constrained Learning
- Title(参考訳): 時間制約学習
- Authors: Sergio Filho, Eduardo Laber, Pedro Lazera, Marco Molinaro
- Abstract要約: 5つの異なる学習者と20のデータセットに関する実験的検討を行った。
TCTが他の2つのアルゴリズムを一貫して上回っていることを示す。
私たちの研究は主に実用的ですが、TCTの取り除かれたバージョンが保証されていることも示しています。
- 参考スコア(独自算出の注目度): 3.9093825078189006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Consider a scenario in which we have a huge labeled dataset ${\cal D}$ and a
limited time to train some given learner using ${\cal D}$. Since we may not be
able to use the whole dataset, how should we proceed? Questions of this nature
motivate the definition of the Time-Constrained Learning Task (TCL): Given a
dataset ${\cal D}$ sampled from an unknown distribution $\mu$, a learner ${\cal
L}$ and a time limit $T$, the goal is to obtain in at most $T$ units of time
the classification model with highest possible accuracy w.r.t. to $\mu$, among
those that can be built by ${\cal L}$ using the dataset ${\cal D}$.
We propose TCT, an algorithm for the TCL task designed based that on
principles from Machine Teaching. We present an experimental study involving 5
different Learners and 20 datasets where we show that TCT consistently
outperforms two other algorithms: the first is a Teacher for black-box learners
proposed in [Dasgupta et al., ICML 19] and the second is a natural adaptation
of random sampling for the TCL setting. We also compare TCT with Stochastic
Gradient Descent training -- our method is again consistently better.
While our work is primarily practical, we also show that a stripped-down
version of TCT has provable guarantees. Under reasonable assumptions, the time
our algorithm takes to achieve a certain accuracy is never much bigger than the
time it takes the batch teacher (which sends a single batch of examples) to
achieve similar accuracy, and in some case it is almost exponentially better.
- Abstract(参考訳): 巨大なラベル付きデータセット${\cal D}$と、与えられた学習者を${\cal D}$でトレーニングする限られた時間を持つシナリオを考えてみましょう。
データセット全体を使用できない可能性があるため、どのように進めるべきなのか?
この性質の疑問は、時間制約学習タスク(tcl: time-constrained learning task)の定義を動機付けている。 未知のディストリビューションからサンプリングされたデータセット ${\cal d}$ 学習者 ${\cal l}$ と時間制限 $t$ が与えられた場合、目標は最大$t$ 単位を最大で取得すること 最大精度の分類モデル w.r.t. - $\mu$ は、データセット ${\cal d}$ を使って${\cal l}$ で構築できるもののうち、${\cal d}$ で構築されることである。
本稿では,機械教育の原理に基づくTCLタスクのアルゴリズムTCTを提案する。
実験では,5種類の学習者および20個のデータセットを用いて,TCTが一貫したアルゴリズムよりも優れており,第1は[Dasgupta et al., ICML 19]で提案されたブラックボックス学習者のための教師であり,第2はTCL設定のためのランダムサンプリングの自然な適応であることを示す。
また,ttcを確率的勾配降下訓練と比較した。
私たちの研究は主に実用的ですが、TCTの取り除かれたバージョンが保証されていることも示しています。
合理的な仮定では、アルゴリズムが一定の精度を達成するのに要する時間は、同じ精度を達成するのにバッチ教師(一組のサンプルを送る)の時間よりもはるかに大きく、ある場合にはほぼ指数関数的に優れている。
関連論文リスト
- A Scalable Algorithm for Active Learning [3.046981426681863]
FIRALはロジスティック回帰を用いた多クラス分類のための決定論的能動学習アルゴリズムである。
ストレージ要求を$mathcalO(n(d+c) + cd2)$に減らし、計算複雑性を$mathcalO(bn2)$とする近似アルゴリズムを提案する。
MNIST, CIFAR-10, Caltech101, ImageNet を用いたアプローチの精度とスケーラビリティを実証した。
論文 参考訳(メタデータ) (2024-09-11T16:34:01Z) - Testable Learning with Distribution Shift [9.036777309376697]
分散シフトを伴うテスト可能学習と呼ばれる新しいモデルを定義する。
テスト分布上の分類器の性能を証明可能なアルゴリズムを得る。
ハーフスペースやハーフスペースの交点,決定木といった概念クラスを学ぶ上で,いくつかの肯定的な結果が得られる。
論文 参考訳(メタデータ) (2023-11-25T23:57:45Z) - A Quadratic Synchronization Rule for Distributed Deep Learning [66.68264684667562]
本研究は、擬似同期規則(QSR)と呼ばれる$H$を決定するための理論基底法を提案する。
ResNet と ViT の実験により、QSR を用いた局所勾配法は、他の同期戦略よりもテスト精度を一貫して向上することが示された。
論文 参考訳(メタデータ) (2023-10-22T21:38:57Z) - Regret-Optimal Federated Transfer Learning for Kernel Regression with Applications in American Option Pricing [8.723136784230906]
本稿では、中央プランナーがデータセットにアクセス可能なフェデレーショントランスファー学習のための最適反復スキームを提案する。
我々の目標は、生成されたパラメータの累積偏差を$thetai(t)_t=0T$で最小化することである。
後悔と最適化のアルゴリズム内で対称性を活用することで, $mathcalO(Np2)$少なめの初等演算を伴って動作する,ほぼ後悔のいく$_optimalを開発する。
論文 参考訳(メタデータ) (2023-09-08T19:17:03Z) - A Spectral Approach to Item Response Theory [6.5268245109828005]
本稿では,Raschモデルに対する新しい項目推定アルゴリズムを提案する。
我々のアルゴリズムの中核は、アイテム-イムグラフ上で定義されたマルコフ連鎖の定常分布の計算である。
合成および実生活データセットの実験により、我々のアルゴリズムは、文献でよく使われている手法とスケーラブルで正確で競合することを示した。
論文 参考訳(メタデータ) (2022-10-09T18:57:08Z) - Blessing of Class Diversity in Pre-training [54.335530406959435]
事前学習タスクのクラスが十分に多種多様である場合、事前学習は下流タスクのサンプル効率を大幅に向上させることができることを示す。
我々の証明は、合成関数クラスに対するベクトル形式ラデマッハ複雑性連鎖則と修正自己調和条件に依存している。
論文 参考訳(メタデータ) (2022-09-07T20:10:12Z) - Supervised Training of Conditional Monge Maps [107.78770597815242]
最適輸送(OT)理論は、多くの可能な選択の中から確率測度を他のものにマッピングする最も効率的な方法を定義し、選択する一般的な原理を記述している。
本研究では,コンテキスト変数に条件付きOTマップの族を推定するマルチタスク手法であるCondOTを紹介する。
本研究では,CondOTの遺伝的・治療的摂動の任意の組み合わせが単一細胞に与える影響を推測する能力を示す。
論文 参考訳(メタデータ) (2022-06-28T19:34:44Z) - FriendlyCore: Practical Differentially Private Aggregation [67.04951703461657]
我々は、制約のない(擬似)計量空間から点の集合を$cal D$として取り出す、単純で実用的なツールである$mathsfFriendlyCore$を提案する。
$cal D$ が有効直径 $r$ を持つとき、$mathsfFriendlyCore$ はすべての点を含む "stable" サブセット $cal D_Gsubseteq cal D$ を返す。
$mathsfFriendlyCore$は、プライベートに集約する前に入力を前処理するために使用することができる。
論文 参考訳(メタデータ) (2021-10-19T17:43:50Z) - On the Power of Multitask Representation Learning in Linear MDP [61.58929164172968]
本稿では,線形マルコフ決定過程(MDP)におけるマルチタスク表現学習の統計的メリットについて分析する。
簡単な最小二乗アルゴリズムが $tildeO(H2sqrtfrackappa MathcalC(Phi)2 kappa dNT+frackappa dn) というポリシーを学ぶことを証明した。
論文 参考訳(メタデータ) (2021-06-15T11:21:06Z) - List-Decodable Mean Estimation in Nearly-PCA Time [50.79691056481693]
高次元におけるリストデコタブル平均推定の基本的な課題について検討する。
我々のアルゴリズムは、すべての$k = O(sqrtd) cup Omega(d)$に対して$widetildeO(ndk)$で実行されます。
我々のアルゴリズムの変種は、すべての$k$に対してランタイム$widetildeO(ndk)$を持ち、リカバリ保証の$O(sqrtlog k)$ Factorを犠牲にしている。
論文 参考訳(メタデータ) (2020-11-19T17:21:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。