論文の概要: Complementary Ensemble Learning
- arxiv url: http://arxiv.org/abs/2111.08449v1
- Date: Tue, 9 Nov 2021 03:23:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-21 15:58:58.761565
- Title: Complementary Ensemble Learning
- Title(参考訳): 補足的アンサンブル学習
- Authors: Hung Nguyen and Morris Chang
- Abstract要約: 我々は最先端のディープラーニングモデルの性能向上手法を考案した。
具体的には、最先端モデルの不確実性を補完できる補助モデルを訓練する。
- 参考スコア(独自算出の注目度): 1.90365714903665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To achieve high performance of a machine learning (ML) task, a deep
learning-based model must implicitly capture the entire distribution from data.
Thus, it requires a huge amount of training samples, and data are expected to
fully present the real distribution, especially for high dimensional data,
e.g., images, videos. In practice, however, data are usually collected with a
diversity of styles, and several of them have insufficient number of
representatives. This might lead to uncertainty in models' prediction, and
significantly reduce ML task performance.
In this paper, we provide a comprehensive study on this problem by looking at
model uncertainty. From this, we derive a simple but efficient technique to
improve performance of state-of-the-art deep learning models. Specifically, we
train auxiliary models which are able to complement state-of-the-art model
uncertainty. As a result, by assembling these models, we can significantly
improve the ML task performance for types of data mentioned earlier. While
slightly improving ML classification accuracy on benchmark datasets (e.g., 0.2%
on MNIST), our proposed method significantly improves on limited data (i.e.,
1.3% on Eardrum and 3.5% on ChestXray).
- Abstract(参考訳): 機械学習(ml)タスクの高性能を実現するためには、ディープラーニングベースのモデルは、データから分布全体を暗黙的に捉えなければならない。
したがって、大量のトレーニングサンプルが必要であり、データは実際の分布、特に画像やビデオのような高次元データを完全に提示することが期待されている。
しかし実際には、データは通常様々なスタイルで収集され、中には代表者が不足しているものもある。
これはモデルの予測の不確実性を招き、MLタスクのパフォーマンスを著しく低下させる可能性がある。
本稿では,モデルの不確実性に着目し,この問題を包括的に研究する。
そこで我々は,最先端のディープラーニングモデルの性能を向上させるための,シンプルだが効率的な手法を考案した。
具体的には,最先端モデルの不確かさを補完する補助モデルを訓練する。
その結果、これらのモデルを組み立てることで、前述のデータタイプのmlタスク性能を大幅に向上することができる。
ベンチマークデータセットのML分類精度をわずかに改善する(例:MNISTの0.2%)が、提案手法は制限データ(例:Eardrumの1.3%、ChestXrayの3.5%)を大幅に改善する。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Forewarned is Forearmed: Leveraging LLMs for Data Synthesis through Failure-Inducing Exploration [90.41908331897639]
大規模言語モデル(LLM)は、多種多様な高品質なタスク特化データのトレーニングの恩恵を受けている。
本稿では,効果的なトレーニングサンプルを自動生成する新しい手法であるReverseGenを提案する。
論文 参考訳(メタデータ) (2024-10-22T06:43:28Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - Bad Students Make Great Teachers: Active Learning Accelerates Large-Scale Visual Understanding [9.112203072394648]
パワーロースケーリングは、均一サンプリングによる大規模トレーニングが違法に遅いことを示している。
アクティブな学習手法は、最も関係のある事例に基づいて学習を優先順位付けすることで、データの効率を向上させることを目的としている。
論文 参考訳(メタデータ) (2023-12-08T19:26:13Z) - Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - Efficiently Robustify Pre-trained Models [18.392732966487582]
大規模モデルの現実的な設定に対する堅牢性は、いまだ探索されていないトピックである。
まず、異なる摂動とデータセットの下でこれらのモデルのパフォーマンスをベンチマークします。
続いて、大規模ネットワークにおいて、モデルファインチューニングに基づく既存のロバスト化スキームが拡張性に欠ける可能性について論じる。
論文 参考訳(メタデータ) (2023-09-14T08:07:49Z) - Are Sample-Efficient NLP Models More Robust? [90.54786862811183]
サンプル効率(所定のID精度に到達するために必要なデータ量)とロバスト性(OOD評価モデルの評価方法)の関係について検討する。
高いサンプル効率は、いくつかのモデリング介入やタスクにおいて、より平均的なOODロバスト性にのみ相関するが、それ以外は相関しない。
これらの結果から,サンプル効率向上のための汎用手法は,データセットとタスクに依存した汎用的なOODロバスト性向上をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2022-10-12T17:54:59Z) - Model-Agnostic Multitask Fine-tuning for Few-shot Vision-Language
Transfer Learning [59.38343286807997]
未知タスクの視覚言語モデルのためのモデル非依存型マルチタスクファインチューニング(MAMF)を提案する。
モデルに依存しないメタラーニング(MAML)と比較して、MAMFは二段階最適化を捨て、一階勾配のみを使用する。
MAMFは5つのベンチマークデータセット上で、数ショットの転送学習において古典的な微調整法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-03-09T17:26:53Z) - Machine learning models for prediction of droplet collision outcomes [8.223798883838331]
液滴衝突の結果を予測することは、広く研究されている現象である。
現在の物理学に基づく結果を予測するモデルは不十分である。
ML設定では、この問題は4つのクラスを持つ分類問題に直接変換される。
論文 参考訳(メタデータ) (2021-10-01T01:53:09Z) - Certifiable Machine Unlearning for Linear Models [1.484852576248587]
機械学習は、トレーニングされたトレーニングデータのサブセットが削除された後、機械学習(ML)モデルを更新するタスクである。
本稿では,線形モデルに対する3つの非学習手法について実験的に検討する。
論文 参考訳(メタデータ) (2021-06-29T05:05:58Z) - Injective Domain Knowledge in Neural Networks for Transprecision
Computing [17.300144121921882]
本稿では,非自明な学習課題を扱う際に,事前知識を統合することで得られる改善について検討する。
その結果,問題固有情報を利用したMLモデルは純粋にデータ駆動のモデルよりも優れており,平均精度は約38%向上していることがわかった。
論文 参考訳(メタデータ) (2020-02-24T12:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。