論文の概要: Exploring the Performance of ML/DL Architectures on the MNIST-1D Dataset
- arxiv url: http://arxiv.org/abs/2602.13348v1
- Date: Thu, 12 Feb 2026 21:31:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:27.935762
- Title: Exploring the Performance of ML/DL Architectures on the MNIST-1D Dataset
- Title(参考訳): MNIST-1Dデータセットを用いたML/DLアーキテクチャの性能調査
- Authors: Michael Beebe, GodsGift Uzor, Manasa Chepuri, Divya Sree Vemula, Angel Ayala,
- Abstract要約: MNIST-1Dは、逐次データにおける帰納バイアスを探索するために設計されたMNISTの一次元適応である。
我々は、Residual Networks(ResNet)、Temporal Convolutional Networks(TCN)、Dilated Convolutional Neural Networks(DCNN)の性能を評価することで、MNIST-1Dの探索を拡張した。
以上の結果から, TCN や DCNN などの先進アーキテクチャはより単純なモデルよりも優れており,MNIST-1D 上でのほぼ人間に近い性能を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Small datasets like MNIST have historically been instrumental in advancing machine learning research by providing a controlled environment for rapid experimentation and model evaluation. However, their simplicity often limits their utility for distinguishing between advanced neural network architectures. To address these challenges, Greydanus et al. introduced the MNIST-1D dataset, a one-dimensional adaptation of MNIST designed to explore inductive biases in sequential data. This dataset maintains the advantages of small-scale datasets while introducing variability and complexity that make it ideal for studying advanced architectures. In this paper, we extend the exploration of MNIST-1D by evaluating the performance of Residual Networks (ResNet), Temporal Convolutional Networks (TCN), and Dilated Convolutional Neural Networks (DCNN). These models, known for their ability to capture sequential patterns and hierarchical features, were implemented and benchmarked alongside previously tested architectures such as logistic regression, MLPs, CNNs, and GRUs. Our experimental results demonstrate that advanced architectures like TCN and DCNN consistently outperform simpler models, achieving near-human performance on MNIST-1D. ResNet also shows significant improvements, highlighting the importance of leveraging inductive biases and hierarchical feature extraction in small structured datasets. Through this study, we validate the utility of MNIST-1D as a robust benchmark for evaluating machine learning architectures under computational constraints. Our findings emphasize the role of architectural innovations in improving model performance and offer insights into optimizing deep learning models for resource-limited environments.
- Abstract(参考訳): MNISTのような小さなデータセットは、迅速な実験とモデル評価のための制御された環境を提供することで、機械学習研究を前進させる上で歴史的に重要な役割を果たしてきた。
しかしながら、その単純さは、先進的なニューラルネットワークアーキテクチャを区別するための有用性をしばしば制限する。
これらの課題に対処するため、GreydanusらはMNIST-1Dデータセットを導入した。
このデータセットは、小規模データセットの利点を維持しながら、高度なアーキテクチャを研究するのに理想的な可変性と複雑さを導入している。
本稿では,Residual Networks (ResNet), Temporal Convolutional Networks (TCN), Dilated Convolutional Neural Networks (DCNN) の性能を評価することで,MNIST-1Dの探索を拡張する。
これらのモデルは、シーケンシャルなパターンと階層的な特徴をキャプチャする能力で知られ、ロジスティック回帰、MPP、CNN、GRUといった以前にテストされたアーキテクチャと共に実装され、ベンチマークされた。
実験の結果,TCNやDCNNなどの先進アーキテクチャはより単純なモデルよりも優れており,MNIST-1Dでほぼ人間に近い性能を実現していることがわかった。
ResNetはまた、小さな構造化データセットにおける帰納的バイアスと階層的特徴抽出を活用することの重要性を強調しながら、大幅な改善を示している。
本研究では,機械学習アーキテクチャを計算制約下で評価するための頑健なベンチマークとして,MNIST-1Dの有効性を検証する。
本研究は,モデル性能向上におけるアーキテクチャ革新の役割を強調し,資源限定環境におけるディープラーニングモデルの最適化に関する洞察を提供する。
関連論文リスト
- Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Spintronics for image recognition: performance benchmarking via
ultrafast data-driven simulations [4.2412715094420665]
単一スピントロニクスナノ構造を用いたエコー状態ネットワーク(ESN)による画像分類の実証を行った。
我々は、STVO力学をシミュレートするために、データ駆動型Thiele方程式アプローチと呼ばれる超高速なデータ駆動シミュレーションフレームワークを用いる。
我々は、MNIST、EMNIST-letters、Fashion MNISTデータセットで分類課題を解決するために、この手法をうまく適用することで、ソリューションの汎用性を示す。
論文 参考訳(メタデータ) (2023-08-10T18:09:44Z) - Efficient Model Adaptation for Continual Learning at the Edge [15.334881190102895]
ほとんどの機械学習(ML)システムは、トレーニングとデプロイメントの間、定常的で一致したデータ分散を前提としている。
データ分布は、環境要因、センサー特性、タスク・オブ・関心などの変化により、時間とともに変化することが多い。
本稿では,ドメインシフト下での効率的な連続学習のためのアダプタ・リコンフィグレータ(EAR)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T23:55:17Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。