論文の概要: Classifier Transfer with Data Selection Strategies for Online Support
Vector Machine Classification with Class Imbalance
- arxiv url: http://arxiv.org/abs/2208.05112v1
- Date: Wed, 10 Aug 2022 02:36:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-11 13:18:26.796821
- Title: Classifier Transfer with Data Selection Strategies for Online Support
Vector Machine Classification with Class Imbalance
- Title(参考訳): クラス不均衡を考慮したオンラインサポートベクターマシン分類のためのデータ選択戦略を用いた分類器転送
- Authors: Mario Michael Krell, Nils Wilshusen, Anett Seeland, Su Kyoung Kim
- Abstract要約: 我々は、格納されたトレーニングデータのサイズを制限するデータ選択戦略に焦点を当てる。
データ選択基準の正しい組み合わせを用いることで、分類器を適応させ、性能を大幅に向上させることができることを示す。
- 参考スコア(独自算出の注目度): 1.2599533416395767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Objective: Classifier transfers usually come with dataset shifts. To overcome
them, online strategies have to be applied. For practical applications,
limitations in the computational resources for the adaptation of batch learning
algorithms, like the SVM, have to be considered.
Approach: We review and compare several strategies for online learning with
SVMs. We focus on data selection strategies which limit the size of the stored
training data [...]
Main Results: For different data shifts, different criteria are appropriate.
For the synthetic data, adding all samples to the pool of considered samples
performs often significantly worse than other criteria. Especially, adding only
misclassified samples performed astoundingly well. Here, balancing criteria
were very important when the other criteria were not well chosen. For the
transfer setups, the results show that the best strategy depends on the
intensity of the drift during the transfer. Adding all and removing the oldest
samples results in the best performance, whereas for smaller drifts, it can be
sufficient to only add potential new support vectors of the SVM which reduces
processing resources.
Significance: For BCIs based on EEG models, trained on data from a
calibration session, a previous recording session, or even from a recording
session with one or several other subjects, are used. This transfer of the
learned model usually decreases the performance and can therefore benefit from
online learning which adapts the classifier like the established SVM. We show
that by using the right combination of data selection criteria, it is possible
to adapt the classifier and largely increase the performance. Furthermore, in
some cases it is possible to speed up the processing and save computational by
updating with a subset of special samples and keeping a small subset of samples
for training the classifier.
- Abstract(参考訳): 目的: 分類子転送は通常、データセットシフトを伴う。
それらを克服するには、オンライン戦略を適用する必要がある。
実用化のためには、SVMのようなバッチ学習アルゴリズムの適応のための計算資源の制限を考慮する必要がある。
アプローチ: オンライン学習のためのいくつかの戦略とSVMを比較し,比較する。
私たちは、格納されたトレーニングデータのサイズを制限するデータ選択戦略に重点を置いています [...] 主な結果: 異なるデータシフトに対して、異なる基準が適しています。
合成データの場合、すべてのサンプルを検討対象のサンプルプールに追加すると、他の基準よりも著しく低下する。
特に、誤って分類されたサンプルのみを追加すると驚くべきほどうまくいった。
ここで、他の基準が適切に選択されなかったとき、バランスの基準は非常に重要であった。
移動装置については, 移動時のドリフト強度に最も優れた戦略が依存していることが示唆された。
古いサンプルを全て追加して削除することで、最高のパフォーマンスが得られるが、小さなドリフトの場合、svmの潜在的な新しいサポートベクターを追加するだけで、処理リソースを削減できる。
意義:脳波モデルに基づくBCIでは、校正セッション、以前の記録セッション、または1つまたは他の複数の被験者による記録セッションからのデータに基づいて訓練される。
この学習モデルの移行は、通常パフォーマンスを低下させるため、確立されたSVMのように分類器に適応するオンライン学習の恩恵を受けることができる。
データ選択基準を適切に組み合わせることで、分類器を適応させ、性能を大幅に向上させることができることを示す。
さらに、特別なサンプルのサブセットを更新し、分類器を訓練するためのサンプルの小さなサブセットを保持することで、処理を高速化し、計算を節約できる場合もある。
関連論文リスト
- Adapt-$\infty$: Scalable Lifelong Multimodal Instruction Tuning via Dynamic Data Selection [89.42023974249122]
Adapt-$infty$は、Lifelong Instruction Tuningの新しいマルチウェイおよびアダプティブデータ選択アプローチである。
勾配に基づくサンプルベクトルをグループ化して擬似スキルクラスタを構築する。
セレクタエキスパートのプールから各スキルクラスタの最高のパフォーマンスデータセレクタを選択する。
論文 参考訳(メタデータ) (2024-10-14T15:48:09Z) - Dataset Quantization with Active Learning based Adaptive Sampling [11.157462442942775]
また, 不均一なサンプル分布であっても, 性能維持が可能であることを示す。
サンプル選択を最適化するために,新しい能動的学習に基づく適応型サンプリング手法を提案する。
提案手法は,最先端のデータセット圧縮手法よりも優れている。
論文 参考訳(メタデータ) (2024-07-09T23:09:18Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Explaining Cross-Domain Recognition with Interpretable Deep Classifier [100.63114424262234]
解釈可能なDeep(IDC)は、ターゲットサンプルの最も近いソースサンプルを、分類器が決定を下す証拠として学習する。
我々のIDCは、精度の劣化がほとんどなく、最適なリジェクションオプションの分類を効果的に調整する、より説明可能なモデルに導かれる。
論文 参考訳(メタデータ) (2022-11-15T15:58:56Z) - Adaptive Distribution Calibration for Few-Shot Learning with
Hierarchical Optimal Transport [78.9167477093745]
本稿では,新しいサンプルとベースクラス間の適応重み行列を学習し,新しい分布校正法を提案する。
標準ベンチマーク実験の結果,提案したプラグ・アンド・プレイモデルの方が競合する手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-10-09T02:32:57Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - Lightweight Conditional Model Extrapolation for Streaming Data under
Class-Prior Shift [27.806085423595334]
非定常ストリーミングデータを用いて学習する新しい方法であるLIMESを紹介する。
我々は、特定のデータ分布に対する特定の分類器を導出するモデルパラメータの集合を1つ学習する。
Twitterデータを用いた一連の模範的なタスクの実験では、LIMESが代替手法よりも高い精度を達成することが示された。
論文 参考訳(メタデータ) (2022-06-10T15:19:52Z) - Message Passing Adaptive Resonance Theory for Online Active
Semi-supervised Learning [30.19936050747407]
オンラインのアクティブ半教師あり学習のためのメッセージパッシング適応共振理論(MPART)を提案する。
MPARTはラベルのないデータのクラスを推論し、トポロジグラフ上のノード間のメッセージパッシングを通じて情報的および代表的サンプルを選択する。
我々は,MPARTがオンラインのアクティブ学習環境において,競合モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-12-02T14:14:42Z) - Ensemble Wrapper Subsampling for Deep Modulation Classification [70.91089216571035]
受信した無線信号のサブサンプリングは、ハードウェア要件と信号処理アルゴリズムの計算コストを緩和するために重要である。
本稿では,無線通信システムにおけるディープラーニングを用いた自動変調分類のためのサブサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-05-10T06:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。