論文の概要: Performance Comparison of Deep Learning Techniques in Naira Classification
- arxiv url: http://arxiv.org/abs/2412.02072v1
- Date: Tue, 03 Dec 2024 01:25:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:44:40.469482
- Title: Performance Comparison of Deep Learning Techniques in Naira Classification
- Title(参考訳): Naira分類におけるディープラーニング手法の性能比較
- Authors: Ismail Ismail Tijjani, Ahmad Abubakar Mustapha, Isma'il Tijjani Idris,
- Abstract要約: ナイラ(英: Naira)は、ナイジェリアの通貨。
本研究では、Deep Learning(DL)モデルを用いて、通貨紙幣(Naira)を分類する。
結果は、このモデルがナイジェリア経済の安全と金融取引の効率を高める方法を示している。
- 参考スコア(独自算出の注目度): 1.024113475677323
- License:
- Abstract: The Naira is Nigeria's official currency in daily transactions. This study presents the deployment and evaluation of Deep Learning (DL) models to classify Currency Notes (Naira) by denomination. Using a diverse dataset of 1,808 images of Naira notes captured under different conditions, trained the models employing different architectures and got the highest accuracy with MobileNetV2, the model achieved a high accuracy rate of in training of 90.75% and validation accuracy of 87.04% in classification tasks and demonstrated substantial performance across various scenarios. This model holds significant potential for practical applications, including automated cash handling systems, sorting systems, and assistive technology for the visually impaired. The results demonstrate how the model could boost the Nigerian economy's security and efficiency of financial transactions.
- Abstract(参考訳): ナイラ(英: Naira)は、ナイジェリアの通貨。
本研究では,Deep Learning(DL)モデルの出現と評価を行い,通貨音符(Naira)を分類する。
異なる条件下で取得されたナイラノートの1,808枚の多様なデータセットを使用して、異なるアーキテクチャを用いてモデルを訓練し、MobileNetV2で最高精度を達成し、このモデルは90.75%のトレーニングと87.04%の分類タスクの検証精度を達成し、様々なシナリオでかなりの性能を示した。
このモデルは、自動キャッシュハンドリングシステム、ソートシステム、視覚障害者のための補助技術など、実用上の大きな可能性を秘めている。
結果は、このモデルがナイジェリア経済の安全と金融取引の効率を高める方法を示している。
関連論文リスト
- Enhancing Exchange Rate Forecasting with Explainable Deep Learning Models [1.5474412217744966]
伝統的な予測モデルは、交換レートデータの本質的な複雑さと非線形性に対処する際にしばしば混乱する。
本研究では,RSM/USD交換率の予測精度を高めるため,LSTM,CNN,トランスフォーマーベースアーキテクチャなどの高度なディープラーニングモデルの適用について検討する。
論文 参考訳(メタデータ) (2024-10-25T01:29:54Z) - Distilled ChatGPT Topic & Sentiment Modeling with Applications in
Finance [0.0]
ChatGPTは、容易に解釈可能な機能を生成する合理化モデルを作成するために利用される。
本稿では,知識の蒸留と伝達学習を融合させ,軽量な話題分類モデルと感情分類モデルを実現するためのトレーニングアプローチについて述べる。
論文 参考訳(メタデータ) (2024-03-04T16:27:21Z) - Towards a Foundation Purchasing Model: Pretrained Generative
Autoregression on Transaction Sequences [0.0]
本稿では,金融取引の文脈的埋め込みを得るための生成事前学習手法を提案する。
さらに,510億の取引を含む180の発行銀行のデータコーパスを用いて,埋め込みモデルの大規模事前学習を行う。
論文 参考訳(メタデータ) (2024-01-03T09:32:48Z) - PanGu-$\pi$: Enhancing Language Model Architectures via Nonlinearity
Compensation [97.78045712375047]
大規模言語モデル(LLM)のための新しい効率的なモデルアーキテクチャを提案する。
そこで,PanGu-$pi$-7Bは,約10%の推論速度を持つベンチマークに匹敵する性能が得られることを示す。
さらに,PanGu-$pi$-7Bを金融法と法律の高価値領域に導入し,実践的応用のためにYunShanというLLMを開発した。
論文 参考訳(メタデータ) (2023-12-27T11:49:24Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Enhancing Zero-Shot Crypto Sentiment with Fine-tuned Language Model and
Prompt Engineering [2.280359339174839]
本稿では,暗号通貨領域における感情分析の精度を高めることを目的として,大規模言語モデルの微調整技術について検討する。
また,大規模言語モデルにおける教師付き微調整と命令に基づく微調整の有効性について検討した。
論文 参考訳(メタデータ) (2023-10-20T02:15:51Z) - Revisiting Classifier: Transferring Vision-Language Models for Video
Recognition [102.93524173258487]
ダウンストリームタスクのためのタスク非依存の深層モデルから知識を伝達することは、コンピュータビジョン研究において重要なトピックである。
本研究では,映像分類作業における知識の伝達に着目した。
予測された言語モデルを用いて、効率的な翻訳学習のための適切なセマンティックターゲットを生成する。
論文 参考訳(メタデータ) (2022-07-04T10:00:47Z) - Feeding What You Need by Understanding What You Learned [54.400455868448695]
Machine Reading (MRC)は、与えられたテキストパスを理解し、それに基づいて質問に答える機能を明らかにする。
MRCの既存の研究は、Exact Matchのようなメトリクスによって評価されたパフォーマンスを改善するために、大規模なモデルとコーパスに大きく依存している。
モデル機能とデータ特性の深い理解は、適切なトレーニングデータでモデルをフィードするのに役立ちます。
論文 参考訳(メタデータ) (2022-03-05T14:15:59Z) - No One Representation to Rule Them All: Overlapping Features of Training
Methods [12.58238785151714]
ハイパフォーマンスモデルは、トレーニング方法論に関係なく、同様の予測をする傾向があります。
近年の研究では、大規模なコントラスト学習など、非常に異なるトレーニングテクニックが、競争的に高い精度で実現されている。
これらのモデルはデータの一般化に特化しており、より高いアンサンブル性能をもたらす。
論文 参考訳(メタデータ) (2021-10-20T21:29:49Z) - Evaluating data augmentation for financial time series classification [85.38479579398525]
2つの最先端ディープラーニングモデルを用いて,ストックデータセットに適用したいくつかの拡張手法を評価する。
比較的小さなデータセット拡張手法では、リスク調整された戻り値のパフォーマンスが最大400%向上する。
より大きなストックデータセット拡張メソッドでは、最大40%の改善が達成される。
論文 参考訳(メタデータ) (2020-10-28T17:53:57Z) - Do Adversarially Robust ImageNet Models Transfer Better? [102.09335596483695]
逆向きに堅牢なモデルは、トランスファーラーニングに使用する場合、標準訓練されたモデルよりもよく機能する。
私たちの結果は、ロバストさが機能表現の改善につながるという最近の仮説と一致しています。
論文 参考訳(メタデータ) (2020-07-16T17:42:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。