論文の概要: Active Transfer Prototypical Network: An Efficient Labeling Algorithm
for Time-Series Data
- arxiv url: http://arxiv.org/abs/2209.14199v1
- Date: Wed, 28 Sep 2022 16:14:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 17:49:15.170007
- Title: Active Transfer Prototypical Network: An Efficient Labeling Algorithm
for Time-Series Data
- Title(参考訳): Active Transfer Prototypeal Network: 時系列データの効率的なラベリングアルゴリズム
- Authors: Yuqicheng Zhu, Mohamed-Ali Tnani, Timo Jahnz, Klaus Diepold
- Abstract要約: 本稿では,プロトタイプネットワーク(ProtoNet)をALイテレーションに組み込むことで,トレードオフ問題に対処する新しいFew-Shot Learning(FSL)ベースのALフレームワークを提案する。
このフレームワークは、UCI HAR/HAPTデータセットと現実世界のブレーキ操作データセットに基づいて検証された。
学習性能は、両方のデータセットにおける従来のALアルゴリズムを大幅に上回り、それぞれ10%と5%のラベル付け作業で90%の分類精度を達成した。
- 参考スコア(独自算出の注目度): 1.7205106391379026
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The paucity of labeled data is a typical challenge in the automotive
industry. Annotating time-series measurements requires solid domain knowledge
and in-depth exploratory data analysis, which implies a high labeling effort.
Conventional Active Learning (AL) addresses this issue by actively querying the
most informative instances based on the estimated classification probability
and retraining the model iteratively. However, the learning efficiency strongly
relies on the initial model, resulting in the trade-off between the size of the
initial dataset and the query number. This paper proposes a novel Few-Shot
Learning (FSL)-based AL framework, which addresses the trade-off problem by
incorporating a Prototypical Network (ProtoNet) in the AL iterations. The
results show an improvement, on the one hand, in the robustness to the initial
model and, on the other hand, in the learning efficiency of the ProtoNet
through the active selection of the support set in each iteration. This
framework was validated on UCI HAR/HAPT dataset and a real-world braking
maneuver dataset. The learning performance significantly surpasses traditional
AL algorithms on both datasets, achieving 90% classification accuracy with 10%
and 5% labeling effort, respectively.
- Abstract(参考訳): ラベル付きデータのpaucityは、自動車業界における典型的な課題である。
時系列計測の注釈付けには、厳密なドメイン知識と深い探索的データ分析が必要である。
従来のアクティブラーニング(AL)は、推定された分類確率に基づいて最も情報性の高いインスタンスを積極的にクエリし、反復的にモデルを再訓練することでこの問題に対処する。
しかし、学習効率は初期モデルに強く依存しており、初期データセットのサイズとクエリ番号の間のトレードオフをもたらす。
本稿では,プロトタイプネットワーク(ProtoNet)をALイテレーションに組み込むことで,トレードオフ問題に対処する新しいFew-Shot Learning(FSL)ベースのALフレームワークを提案する。
その結果,初期モデルに対するロバスト性や,各イテレーションにおけるサポートセットのアクティブ選択によるProtoNetの学習効率の向上が示された。
このフレームワークは、uci har/haptデータセットと現実世界のブレーキ操作データセットで検証された。
学習性能は、両方のデータセットにおける従来のALアルゴリズムを大幅に上回り、それぞれ10%と5%のラベル付け作業で90%の分類精度を達成した。
関連論文リスト
- Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - Towards Efficient Active Learning in NLP via Pretrained Representations [1.90365714903665]
ファインチューニング大型言語モデル(LLM)は、今や幅広いアプリケーションにおけるテキスト分類の一般的なアプローチである。
能動学習ループ内でのLLMの事前学習表現を用いて,このプロセスを大幅に高速化する。
私たちの戦略は、アクティブな学習ループを通した微調整と同じようなパフォーマンスを得るが、計算コストは桁違いに低い。
論文 参考訳(メタデータ) (2024-02-23T21:28:59Z) - Stochastic Amortization: A Unified Approach to Accelerate Feature and
Data Attribution [67.28273187033693]
アモート化(amortization)と呼ばれる,所望の出力を直接予測するネットワークのトレーニングは安価で,驚くほど効果的であることを示す。
このアプローチは、いくつかの特徴属性とデータ評価手法を著しく加速し、しばしば既存のアプローチよりも桁違いにスピードアップする。
論文 参考訳(メタデータ) (2024-01-29T03:42:37Z) - Active Learning Guided by Efficient Surrogate Learners [25.52920030051264]
1つのデータポイントが新しいラベルを受け取るたびに、ディープラーニングモデルを再トレーニングするのは現実的ではない。
本稿では,ニューラルネットワークの主学習者とともに,ガウス過程の力を利用する新しい能動学習アルゴリズムを提案する。
提案モデルでは,新しいデータインスタンス毎のサロゲート学習者を積極的に更新し,ニューラルネットワークの連続学習ダイナミクスをエミュレートし,活用する。
論文 参考訳(メタデータ) (2023-01-07T01:35:25Z) - Active Learning Framework to Automate NetworkTraffic Classification [0.0]
この話題に対処するための新しいActiveLearning Framework(ALF)を提案する。
ALFは、アクティブラーニングループのデプロイと、データセットとMLモデルを継続的に進化させるALFインスタンスのメンテナンスに使用できるコンポーネントを提供する。
その結果,高速(100Gb/s)ネットワークのIPフローに基づく解析が可能となった。
論文 参考訳(メタデータ) (2022-10-26T10:15:18Z) - Active Learning at the ImageNet Scale [43.595076693347835]
本研究では,画像ネット上でのアクティブラーニング(AL)と事前学習(SSP)の組み合わせについて検討する。
学習者が選択したクラス不均衡なサンプルから,小型の玩具データセットのパフォーマンスがImageNetのパフォーマンスを表すものではないことが判明した。
本稿では、ランダムサンプリングを一貫して上回る、単純でスケーラブルなALアルゴリズムであるBa balanced Selection (BASE)を提案する。
論文 参考訳(メタデータ) (2021-11-25T02:48:51Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - Fase-AL -- Adaptation of Fast Adaptive Stacking of Ensembles for
Supporting Active Learning [0.0]
本研究は,Active Learning を用いて非ラベルのインスタンスで分類モデルを誘導する FASE-AL アルゴリズムを提案する。
このアルゴリズムは、正しく分類されたインスタンスの割合で有望な結果を得る。
論文 参考訳(メタデータ) (2020-01-30T17:25:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。