論文の概要: Training a HyperDimensional Computing Classifier using a Threshold on
its Confidence
- arxiv url: http://arxiv.org/abs/2305.19007v1
- Date: Tue, 30 May 2023 13:03:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 16:12:03.543343
- Title: Training a HyperDimensional Computing Classifier using a Threshold on
its Confidence
- Title(参考訳): 信頼度閾値を用いた超次元計算分類器の訓練
- Authors: Laura Smets, Werner Van Leekwijck, Ing Jyh Tsang and Steven Latre
- Abstract要約: 本稿では,HDCモデルで正しく分類されたサンプルだけでなく,信頼性の低いサンプルも考慮して,HDCのトレーニング手順を拡張することを提案する。
提案手法は,UCIHAR,CTG,ISOLET,HANDのデータセットを用いて,ベースラインと比較して連続的に性能が向上することを確認した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hyperdimensional computing (HDC) has become popular for light-weight and
energy-efficient machine learning, suitable for wearable Internet-of-Things
(IoT) devices and near-sensor or on-device processing. HDC is computationally
less complex than traditional deep learning algorithms and achieves moderate to
good classification performance. This article proposes to extend the training
procedure in HDC by taking into account not only wrongly classified samples,
but also samples that are correctly classified by the HDC model but with low
confidence. As such, a confidence threshold is introduced that can be tuned for
each dataset to achieve the best classification accuracy. The proposed training
procedure is tested on UCIHAR, CTG, ISOLET and HAND dataset for which the
performance consistently improves compared to the baseline across a range of
confidence threshold values. The extended training procedure also results in a
shift towards higher confidence values of the correctly classified samples
making the classifier not only more accurate but also more confident about its
predictions.
- Abstract(参考訳): 超次元コンピューティング(HDC)は、軽量でエネルギー効率のよい機械学習に人気があり、ウェアラブルなIoTデバイスや、ニアセンサーやオンデバイス処理に適している。
hdcは従来のディープラーニングアルゴリズムよりも計算量が少なく、適度な分類性能を実現している。
本稿では,hdcモデルによって正しく分類されたサンプルだけでなく,信頼性の低いサンプルについても考慮して,hdcのトレーニング手順を拡張することを提案する。
そのため、各データセットに対して最適な分類精度を達成するために調整可能な信頼しきい値が導入された。
提案手法は,ucihar,ctg,isolet,ハンドデータセットでテストされ,信頼しきい値の範囲において,ベースラインと比較して一貫して性能が向上する。
拡張されたトレーニング手順は、正しく分類されたサンプルの信頼度の高い値へとシフトし、分類器がより正確になるだけでなく、その予測に対する自信も高まる。
関連論文リスト
- C-Adapter: Adapting Deep Classifiers for Efficient Conformal Prediction Sets [19.318945675529456]
精度を犠牲にすることなく共形予測器の効率を向上させるためにtextbfConformal Adapter (C-Adapter) を導入する。
特に、命令保存関数のクラスとしてアダプタを実装し、提案した損失に合わせて調整する。
C-Adapterを使用すると、このモデルは間違ったラベルに対して非常に高い非整合性スコアを生成する傾向にある。
論文 参考訳(メタデータ) (2024-10-12T07:28:54Z) - CALICO: Confident Active Learning with Integrated Calibration [11.978551396144532]
トレーニングプロセス中にサンプル選択に使用される信頼度を自己校正するALフレームワークを提案する。
ラベル付きサンプルが少ないソフトマックス分類器と比較して,分類性能が向上した。
論文 参考訳(メタデータ) (2024-07-02T15:05:19Z) - Evaluating Classifier Confidence for Surface EMG Pattern Recognition [4.56877715768796]
表面筋電図(EMG)は、パターン認識を介して様々なデバイスやソフトウェアのためのインタフェース信号として用いられる。
本研究の目的は,EMGパターン認識における高い精度と信頼性を提供する分類器の種類を特定することである。
論文 参考訳(メタデータ) (2023-04-12T15:05:25Z) - First steps towards quantum machine learning applied to the
classification of event-related potentials [68.8204255655161]
低情報伝達速度は、臨床応用のための非侵襲脳波(EEG)に基づく脳-コンピュータインターフェースの主要なボトルネックである。
本研究では,量子化支援ベクトル分類器(QSVC)の性能について検討する。
QSVCのトレーニング(予測)精度は83.17 (50.25) %であった。
論文 参考訳(メタデータ) (2023-02-06T09:43:25Z) - Sample-dependent Adaptive Temperature Scaling for Improved Calibration [95.7477042886242]
ニューラルネットワークの誤りを補うポストホックアプローチは、温度スケーリングを実行することだ。
入力毎に異なる温度値を予測し、信頼度と精度のミスマッチを調整することを提案する。
CIFAR10/100およびTiny-ImageNetデータセットを用いて,ResNet50およびWideResNet28-10アーキテクチャ上で本手法をテストする。
論文 参考訳(メタデータ) (2022-07-13T14:13:49Z) - Contextual Squeeze-and-Excitation for Efficient Few-Shot Image
Classification [57.36281142038042]
本稿では,事前学習したニューラルネットワークを新しいタスクで調整し,性能を大幅に向上させる,Contextual Squeeze-and-Excitation (CaSE) という適応ブロックを提案する。
また、メタトレーニングされたCaSEブロックと微調整ルーチンを利用して効率よく適応する、アッパーCaSEと呼ばれるコーディネートダイスに基づく新しいトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2022-06-20T15:25:08Z) - Learning Optimal Conformal Classifiers [32.68483191509137]
コンフォーマル予測(CP)は、真のクラスを含む信頼セットをユーザが特定した確率で予測するために用いられる。
本稿では, CP を用いた学習において, コンフォーマルラッパーをエンド・ツー・エンドとしたトレーニングモデルを用いて, CP による差別化戦略について検討する。
コンフォメーショントレーニング(ConfTr)は、平均信頼度セットのサイズを小さくすることで、最先端のCP手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-18T11:25:33Z) - Efficient training of lightweight neural networks using Online
Self-Acquired Knowledge Distillation [51.66271681532262]
オンライン自己獲得知識蒸留(OSAKD)は、ディープニューラルネットワークの性能をオンライン的に向上することを目的としている。
出力特徴空間におけるデータサンプルの未知確率分布を推定するために、k-nnノンパラメトリック密度推定手法を用いる。
論文 参考訳(メタデータ) (2021-08-26T14:01:04Z) - Semantic Perturbations with Normalizing Flows for Improved
Generalization [62.998818375912506]
我々は、非教師付きデータ拡張を定義するために、潜在空間における摂動が利用できることを示す。
トレーニングを通して分類器に適応する潜伏性対向性摂動が最も効果的であることが判明した。
論文 参考訳(メタデータ) (2021-08-18T03:20:00Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Calibrating Deep Neural Network Classifiers on Out-of-Distribution
Datasets [20.456742449675904]
CCAC(Confidence with a Auxiliary Class)はディープニューラルネットワーク(DNN)のための新しいポストホック信頼度校正法である
CCACのキーノベルティは、誤分類されたサンプルと正しく分類されたサンプルを分離するキャリブレーションモデルにおける補助クラスである。
異なるDNNモデル,データセット,アプリケーションに対する実験により,CCACは従来よりずっと優れていることがわかった。
論文 参考訳(メタデータ) (2020-06-16T04:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。