論文の概要: Feature Engineering vs. Deep Learning for Automated Coin Grading: A Comparative Study on Saint-Gaudens Double Eagles
- arxiv url: http://arxiv.org/abs/2512.04464v1
- Date: Thu, 04 Dec 2025 05:13:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.004102
- Title: Feature Engineering vs. Deep Learning for Automated Coin Grading: A Comparative Study on Saint-Gaudens Double Eagles
- Title(参考訳): オートマチック・コイングレーディングにおける特徴工学と深層学習:サンガウデンダブルイーグルの比較研究
- Authors: Tanmay Dogra, Eric Ngo, Mohammad Alam, Jean-Paul Talavera, Asim Dahal,
- Abstract要約: ANNは86%の正確な試合を行い、3グレードのリーウェイで98%を突破した。
CNNとSVMは、主に最も一般的なグレードを推測し、31%と30%の正確なヒットでスクラップした。
これは、データの薄さやノウハウが生の計算よりも重要である他のニッチな品質チェックにも当てはまります。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We challenge the common belief that deep learning always trumps older techniques, using the example of grading Saint-Gaudens Double Eagle gold coins automatically. In our work, we put a feature-based Artificial Neural Network built around 192 custom features pulled from Sobel edge detection and HSV color analysis up against a hybrid Convolutional Neural Network that blends in EfficientNetV2, plus a straightforward Support Vector Machine as the control. Testing 1,785 coins graded by experts, the ANN nailed 86% exact matches and hit 98% when allowing a 3-grade leeway. On the flip side, CNN and SVM mostly just guessed the most common grade, scraping by with 31% and 30% exact hits. Sure, the CNN looked good on broader tolerance metrics, but that is because of some averaging trick in regression that hides how it totally flops at picking out specific grades. All told, when you are stuck with under 2,000 examples and lopsided classes, baking in real coin-expert knowledge through feature design beats out those inscrutable, all-in-one deep learning setups. This rings true for other niche quality checks where data's thin and know-how matters more than raw compute.
- Abstract(参考訳): 私たちは、サン=ガウデンダブルイーグルの金貨を自動で格付けする例を使って、ディープラーニングが古いテクニックを常に切り捨てる、という一般的な信念に挑戦する。
私たちの研究では、Sobelエッジ検出とHSVカラー分析から抽出した192のカスタム機能を中心に、EfficientNetV2をブレンドしたハイブリッドの畳み込みニューラルネットワークと、直接的にサポートベクトルマシンを対照として、機能ベースのArtificial Neural Networkを構築しました。
専門家が1,785枚のコインを検査したところ、ANNは86%の正確なマッチを達成し、3グレードのリーウェイを許可すると98%を突破した。
一方、CNNとSVMはたいてい、最も一般的なグレードを推測し、31%、正確なヒットを30%減らしました。
もちろん、CNNは幅広いトレランスの指標によく似ていますが、それは、特定のグレードを抽出するときに完全に浮き彫りになる、レグレッションにおける平均的なトリックが原因です。
総じて、2000人未満のサンプルや下手なクラスに悩まされているとき、機能設計を通じて実際のコイン専門家の知識を焼くと、調査不能でオールインワンのディープラーニングのセットアップを打ち破る。
これは、データの薄さやノウハウが生の計算よりも重要である他のニッチな品質チェックにも当てはまります。
関連論文リスト
- Quantization Aware Attack: Enhancing Transferable Adversarial Attacks by Model Quantization [57.87950229651958]
量子ニューラルネットワーク(QNN)は、異常な一般化性のため、リソース制約のあるシナリオに注目が集まっている。
従来の研究では、ビット幅の異なるQNN間で転送性を実現することは困難であった。
マルチビット学習目的のQNN代替モデルを微調整するテキスト品質認識攻撃(QAA)を提案する。
論文 参考訳(メタデータ) (2023-05-10T03:46:53Z) - Two Heads are Better than One: Robust Learning Meets Multi-branch Models [23.081094084911182]
信頼性が高く効果的な防御方法である敵の訓練は、ニューラルネットワークの脆弱性を著しく減少させる可能性がある。
対人訓練のための最初のデータセットのみを用いて、最先端のパフォーマンスを得るために、textitBranch Orthogonality adveRsarial Training (BORT)を提案する。
CIFAR-10 と CIFAR-100 と SVHN に対するアプローチを,それぞれ $ell_infty$ と $epsilon = 8/255$ のノルム有界摂動に対して評価した。
論文 参考訳(メタデータ) (2022-08-17T05:42:59Z) - Large Neural Networks Learning from Scratch with Very Few Data and
without Regularization [0.0]
数百万の重みを持つ非常に大きな畳み込みニューラルネットワークが、ほんのわずかのトレーニングサンプルで学習できることを示します。
重量1億4000万のVGG19は、飛行機とバイクの区別を95%の精度で学べる。
論文 参考訳(メタデータ) (2022-05-18T10:08:28Z) - Exploring the Common Principal Subspace of Deep Features in Neural
Networks [50.37178960258464]
我々は、同じデータセットでトレーニングされた異なるディープニューラルネットワーク(DNN)が、潜在空間において共通の主部分空間を共有することを発見した。
具体的には、DNNで学んだ深い機能の主部分空間を表すために、$mathcalP$-vectorを新たに設計する。
異なるアルゴリズム/アーキテクチャで訓練された2つのDNNの比較では、小さな角度(コサインが1.0ドルに近い)が見つかっている。
論文 参考訳(メタデータ) (2021-10-06T15:48:32Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Adversarially robust deepfake media detection using fused convolutional
neural network predictions [79.00202519223662]
現在のディープフェイク検出システムは、目に見えないデータと戦っている。
ビデオから抽出した偽画像と実画像の分類には,CNN(Deep Convolutional Neural Network)モデルが3種類採用されている。
提案手法は96.5%の精度で最先端のモデルより優れている。
論文 参考訳(メタデータ) (2021-02-11T11:28:00Z) - Kernel Based Progressive Distillation for Adder Neural Networks [71.731127378807]
追加のみを含むAdder Neural Networks(ANN)は、エネルギー消費の少ないディープニューラルネットワークを新たに開発する方法を提供する。
すべての畳み込みフィルタを加算フィルタで置き換える場合、精度の低下がある。
本稿では,トレーニング可能なパラメータを増大させることなく,ANNの性能を向上するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-09-28T03:29:19Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - The shape and simplicity biases of adversarially robust ImageNet-trained
CNNs [9.707679445925516]
本稿では,AlexNet,GoogLeNet,ResNet-50モデルの汎用性を実現するための形状バイアスと内部機構について検討する。
興味深いことに、敵の訓練はCNNの「不正化」過程において隠れたニューロンに3つの単純バイアスを誘導する。
論文 参考訳(メタデータ) (2020-06-16T16:38:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。