論文の概要: Can neural networks count digit frequency?
- arxiv url: http://arxiv.org/abs/2310.04431v1
- Date: Mon, 25 Sep 2023 03:45:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-15 14:48:34.192860
- Title: Can neural networks count digit frequency?
- Title(参考訳): ニューラルネットワークは桁数を数えられるか?
- Authors: Padmaksh Khandelwal
- Abstract要約: 本研究では,従来の機械学習モデルとニューラルネットワークの性能を比較し,各桁の出現頻度を推定する。
ニューラルネットワークは6桁と10桁の両方のレグレッションと分類の指標で、従来の機械学習モデルよりも大幅に優れています。
- 参考スコア(独自算出の注目度): 16.04455549316468
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this research, we aim to compare the performance of different classical
machine learning models and neural networks in identifying the frequency of
occurrence of each digit in a given number. It has various applications in
machine learning and computer vision, e.g. for obtaining the frequency of a
target object in a visual scene. We considered this problem as a hybrid of
classification and regression tasks. We carefully create our own datasets to
observe systematic differences between different methods. We evaluate each of
the methods using different metrics across multiple datasets.The metrics of
performance used were the root mean squared error and mean absolute error for
regression evaluation, and accuracy for classification performance evaluation.
We observe that decision trees and random forests overfit to the dataset, due
to their inherent bias, and are not able to generalize well. We also observe
that the neural networks significantly outperform the classical machine
learning models in terms of both the regression and classification metrics for
both the 6-digit and 10-digit number datasets. Dataset and code are available
on github.
- Abstract(参考訳): 本研究では,異なる古典的機械学習モデルとニューラルネットワークの性能を比較し,与えられた数値における各桁の発生頻度を同定することを目的とする。
機械学習やコンピュータビジョンにおいて、例えば視覚シーンにおける対象オブジェクトの周波数を取得するために様々な応用がある。
我々はこの問題を分類タスクと回帰タスクのハイブリッドとみなした。
異なる方法間の系統的な違いを観察するために、慎重に独自のデータセットを作成します。
提案手法は,複数のデータセットにまたがって異なる測定値を用いて評価し,その評価基準はルート平均二乗誤差と平均絶対誤差,分類性能評価の精度であった。
決定木や無作為林は、その固有のバイアスのためにデータセットに過度に適合し、うまく一般化できないことを観察する。
また、ニューラルネットワークは6桁と10桁の数値データセットの回帰と分類の両方の観点から、従来の機械学習モデルよりも大幅に優れています。
データセットとコードはgithubから入手できる。
関連論文リスト
- A Comparison of Machine Learning Methods for Data with High-Cardinality
Categorical Variables [6.85316573653194]
機械学習の手法は、高心身変数では困難である。
本稿では,最も成功した機械学習手法の2つのバージョンを実証的に比較する。
論文 参考訳(メタデータ) (2023-07-05T07:26:27Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Deep ensembles in bioimage segmentation [74.01883650587321]
本研究では,畳み込みニューラルネットワーク(CNN)のアンサンブルを提案する。
アンサンブル法では、多くの異なるモデルが訓練され、分類に使用され、アンサンブルは単一分類器の出力を集約する。
提案するアンサンブルは,DeepLabV3+とHarDNet環境を用いて,異なるバックボーンネットワークを組み合わせることで実現されている。
論文 参考訳(メタデータ) (2021-12-24T05:54:21Z) - Learning a binary search with a recurrent neural network. A novel
approach to ordinal regression analysis [0.0]
本稿では,順序回帰における深層学習フレームワークが提供するシーケンス・ツー・シーケンス学習手法の応用について検討する。
対象変数の順序に応じてモデルの説明変数を可視化する手法を提案する。
この手法は、多くのベンチマークデータセット上の従来の順序回帰法と比較され、同等またははるかに優れた予測能力を有することが示されている。
論文 参考訳(メタデータ) (2021-01-07T16:16:43Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - System Identification Through Lipschitz Regularized Deep Neural Networks [0.4297070083645048]
ニューラルネットワークを使って、データから支配方程式を学習します。
我々は、観測されたタイムスタンプデータから直接、ODEs $dotx(t) = f(t, x(t))$の右辺を再構築する。
論文 参考訳(メタデータ) (2020-09-07T17:52:51Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。