論文の概要: Does Deep Active Learning Work in the Wild?
- arxiv url: http://arxiv.org/abs/2302.00098v2
- Date: Fri, 06 Dec 2024 04:51:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:54:22.242010
- Title: Does Deep Active Learning Work in the Wild?
- Title(参考訳): ディープラーニングは野生で機能するのか?
- Authors: Simiao Ren, Saad Lahrichi, Yang Deng, Willie J. Padilla, Leslie Collins, Jordan Malof,
- Abstract要約: 深層能動学習(DAL)法は, 単純なランダムサンプリングに比べて, サンプル効率が著しく向上した。
ここでは、現実世界の環境では、あるいは荒野では、良質なHPに関してかなりの不確実性があることを論じる。
8つのベンチマーク問題に対して,11種類のDAL手法の性能評価を行った。
- 参考スコア(独自算出の注目度): 9.722499619824442
- License:
- Abstract: Deep active learning (DAL) methods have shown significant improvements in sample efficiency compared to simple random sampling. While these studies are valuable, they nearly always assume that optimal DAL hyperparameter (HP) settings are known in advance, or optimize the HPs through repeating DAL several times with different HP settings. Here, we argue that in real-world settings, or in the wild, there is significant uncertainty regarding good HPs, and their optimization contradicts the premise of using DAL (i.e., we require labeling efficiency). In this study, we evaluate the performance of eleven modern DAL methods on eight benchmark problems as we vary a key HP shared by all methods: the pool ratio. Despite adjusting only one HP, our results indicate that eight of the eleven DAL methods sometimes underperform relative to simple random sampling and some frequently perform worse. Only three methods always outperform random sampling (albeit narrowly), and we find that these methods all utilize diversity to select samples - a relatively simple criterion. Our findings reveal the limitations of existing DAL methods when deployed in the wild, and present this as an important new open problem in the field.
- Abstract(参考訳): 深層能動学習(DAL)法は, 単純なランダムサンプリングに比べて, サンプル効率が著しく向上した。
これらの研究は価値があるが、ほとんどの場合、最適なDALハイパーパラメータ(HP)設定が事前に知られていると仮定し、異なるHP設定で何度もDALを繰り返すことでHPを最適化する。
ここでは、実世界の環境では、あるいは野生環境では、良質なHPに対して重大な不確実性があり、それらの最適化は、DALを使用する前提と矛盾する(つまり、ラベルの効率が要求される)。
本研究では,8つのベンチマーク問題に対する11のDAL手法の性能評価を行った。
HP を1 個だけ調整した結果,DAL 法のうち8 個は単純なランダムサンプリングに比べて性能が劣る場合があり,そのうち8 個は性能が悪くなる場合が多いことが示唆された。
3つの方法だけが常にランダムサンプリングを上回り(狭義だが)、これらの手法はすべて標本の選択に多様性を利用する。
本研究は,野生に展開する既存DAL手法の限界を明らかにし,この分野において重要な新しいオープン問題として提示するものである。
関連論文リスト
- Coupling Machine Learning Local Predictions with a Computational Fluid Dynamics Solver to Accelerate Transient Buoyant Plume Simulations [0.0]
本研究では,CFDと機械学習を組み合わせた多用途でスケーラブルなハイブリッド手法を提案する。
目的は、局所的な特徴を活用して、比較可能なシナリオにおける圧力場の時間的変化を予測することである。
圧力-速度結合過程を加速するために初期値として圧力推定を用いた。
論文 参考訳(メタデータ) (2024-09-11T10:38:30Z) - Deep Learning-Based Out-of-distribution Source Code Data Identification: How Far Have We Gone? [23.962076093344166]
我々は,OODソースコードデータ識別問題に対処する革新的なディープラーニングベースのアプローチを提案する。
本手法は,革新的なクラスタコントラスト学習を用いて情報理論的な視点から導出する。
提案手法は,FPR,AUROC,AUPRでそれぞれ約15.27%,7.39%,4.93%の成績を示した。
論文 参考訳(メタデータ) (2024-04-09T02:52:55Z) - PETScML: Second-order solvers for training regression problems in Scientific Machine Learning [0.22499166814992438]
近年、分析のためのデータ駆動ツールとして、科学機械学習の出現を目撃している。
我々は、ディープラーニングソフトウェアと従来の機械学習技術とのギャップを埋めるために、Portable and Extensible Toolkit for Scientific計算上に構築されたソフトウェアを紹介します。
論文 参考訳(メタデータ) (2024-03-18T18:59:42Z) - Autoencoder-based Anomaly Detection in Streaming Data with Incremental
Learning and Concept Drift Adaptation [10.41066461952124]
ドリフト検出(strAEm++DD)を用いた自動エンコーダに基づく漸進学習手法を提案する。
提案手法は,逐次学習とドリフト検出の両方の利点を利用する。
我々は,重度あるいは極度のクラス不均衡を持つ実世界のデータセットと合成データセットを用いて実験を行い,StraAEm++DDの実証分析を行った。
論文 参考訳(メタデータ) (2023-05-15T19:40:04Z) - Learning Controllable Adaptive Simulation for Multi-resolution Physics [86.8993558124143]
完全深層学習に基づくサロゲートモデルとして,LAMP(Learning Controllable Adaptive Simulation for Multi- resolution Physics)を導入した。
LAMPは、前方進化を学習するためのグラフニューラルネットワーク(GNN)と、空間的洗練と粗大化のポリシーを学ぶためのGNNベースのアクター批判で構成されている。
我々は,LAMPが最先端のディープラーニングサロゲートモデルより優れており,長期予測誤差を改善するために,適応的なトレードオフ計算が可能であることを実証した。
論文 参考訳(メタデータ) (2023-05-01T23:20:27Z) - Towards Robust Dataset Learning [90.2590325441068]
本稿では,頑健なデータセット学習問題を定式化するための三段階最適化法を提案する。
ロバストな特徴と非ロバストな特徴を特徴付ける抽象モデルの下で,提案手法はロバストなデータセットを確実に学習する。
論文 参考訳(メタデータ) (2022-11-19T17:06:10Z) - A Comparative Survey of Deep Active Learning [76.04825433362709]
Active Learning (AL)は、ラベル付けのための大きなラベル付けされていないデータプールからデータサンプルを順次選択することで、ラベル付けコストを削減するための一連のテクニックである。
ディープラーニング(DL)はデータハングリーであり、DLモデルのパフォーマンスは、より多くのトレーニングデータとともに単調にスケールする。
近年、Deep Active Learning (DAL) は、高価なラベリングコストを最小化しつつ、モデル性能を最大化するための実現可能なソリューションとして上昇している。
論文 参考訳(メタデータ) (2022-03-25T05:17:24Z) - IQ-Learn: Inverse soft-Q Learning for Imitation [95.06031307730245]
少数の専門家データからの模倣学習は、複雑な力学を持つ高次元環境では困難である。
行動クローニングは、実装の単純さと安定した収束性のために広く使われている単純な方法である。
本稿では,1つのQ-関数を学習することで,対向学習を回避する動的適応型ILを提案する。
論文 参考訳(メタデータ) (2021-06-23T03:43:10Z) - Bayesian Active Learning for Wearable Stress and Affect Detection [0.7106986689736827]
デバイス上での深層学習アルゴリズムによるストレス検出は、広汎なコンピューティングの進歩により増加傾向にある。
本稿では,ベイズニューラルネットワークの近似によるモデル不確実性を表現可能なフレームワークを提案する。
提案手法は, 提案手法により, 推定時の効率を著しく向上し, 獲得したプール点数がかなり少なくなる。
論文 参考訳(メタデータ) (2020-12-04T16:19:37Z) - Data-Efficient Learning for Complex and Real-Time Physical Problem
Solving using Augmented Simulation [49.631034790080406]
本稿では,大理石を円形迷路の中心まで航行する作業について述べる。
実システムと対話する数分以内に,複雑な環境で大理石を動かすことを学習するモデルを提案する。
論文 参考訳(メタデータ) (2020-11-14T02:03:08Z) - An Online Method for A Class of Distributionally Robust Optimization
with Non-Convex Objectives [54.29001037565384]
本稿では,オンライン分散ロバスト最適化(DRO)のクラスを解決するための実用的なオンライン手法を提案する。
本研究は,ネットワークの堅牢性向上のための機械学習における重要な応用を実証する。
論文 参考訳(メタデータ) (2020-06-17T20:19:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。