論文の概要: Six Sigma For Neural Networks: Taguchi-based optimization
- arxiv url: http://arxiv.org/abs/2509.25213v1
- Date: Mon, 22 Sep 2025 06:50:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.164803
- Title: Six Sigma For Neural Networks: Taguchi-based optimization
- Title(参考訳): Six Sigma for Neural Networks: Taguchiによる最適化
- Authors: Sai Varun Kodathala,
- Abstract要約: 本研究では,従来品質工学に用いられてきた統計最適化手法であるTaguchi Design of Experiments法の適用について紹介する。
機械学習最適化の多目的性に対処するため、トレーニング精度、検証精度、トレーニング損失、検証損失を同時に最適化する5つのアプローチを開発した。
その結果, 重み付き精度測定値と対数変換された損失関数を組み合わせることで, 最適性能を98.84%のトレーニング精度と86.25%の検証精度で達成し, 最小損失値を維持した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The optimization of hyperparameters in convolutional neural networks (CNNs) remains a challenging and computationally expensive process, often requiring extensive trial-and-error approaches or exhaustive grid searches. This study introduces the application of Taguchi Design of Experiments methodology, a statistical optimization technique traditionally used in quality engineering, to systematically optimize CNN hyperparameters for professional boxing action recognition. Using an L12(211) orthogonal array, eight hyperparameters including image size, color mode, activation function, learning rate, rescaling, shuffling, vertical flip, and horizontal flip were systematically evaluated across twelve experimental configurations. To address the multi-objective nature of machine learning optimization, five different approaches were developed to simultaneously optimize training accuracy, validation accuracy, training loss, and validation loss using Signal-to-Noise ratio analysis. The study employed a novel logarithmic scaling technique to unify conflicting metrics and enable comprehensive multi-quality assessment within the Taguchi framework. Results demonstrate that Approach 3, combining weighted accuracy metrics with logarithmically transformed loss functions, achieved optimal performance with 98.84% training accuracy and 86.25% validation accuracy while maintaining minimal loss values. The Taguchi analysis revealed that learning rate emerged as the most influential parameter, followed by image size and activation function, providing clear guidance for hyperparameter prioritization in CNN optimization.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)におけるハイパーパラメータの最適化は、多くの場合、広範囲な試行錯誤アプローチや網羅的なグリッドサーチを必要とする、困難で計算コストのかかるプロセスのままである。
本研究では,プロボクシング行動認識のためのCNNハイパーパラメータを体系的に最適化するために,従来品質工学で用いられてきた統計最適化手法であるTaguchi Design of Experiments法を適用した。
L12(211)直交アレイを用いて,画像サイズ,色モード,アクティベーション関数,学習率,再スケーリング,シャッフル,垂直フリップ,水平フリップを含む8つのハイパーパラメータを,12の実験構成で体系的に評価した。
機械学習最適化の多目的性に対処するため、信号対雑音比分析を用いてトレーニング精度、検証精度、トレーニング損失、検証損失を同時に最適化する5つのアプローチを開発した。
この研究では、競合するメトリクスを統一し、田口フレームワーク内の総合的な多品質評価を可能にするために、新しい対数スケーリング手法を採用した。
その結果, 重み付き精度測定値と対数変換された損失関数を組み合わせることで, 最適性能を98.84%のトレーニング精度と86.25%の検証精度で達成し, 最小損失値を維持した。
田口分析の結果,学習率が最も大きなパラメータとして出現し,次に画像サイズとアクティベーション関数が出現し,CNN最適化におけるハイパーパラメータ優先順位付けの明確なガイダンスが得られた。
関連論文リスト
- SO-PIFRNN: Self-optimization physics-informed Fourier-features randomized neural network for solving partial differential equations [3.769992289689535]
本研究では,自己最適化物理を用いたフーリエ特徴ランダムニューラルネットワーク(SO-PIFRNN)フレームワークを提案する。
内層最適化は最小二乗法によりニューラルネットワークの出力層重みを決定する。
実験の結果,SO-PIFRNNは近似精度と周波数捕捉能に優れていた。
論文 参考訳(メタデータ) (2025-08-07T02:08:34Z) - Unveiling the optimization process of Physics Informed Neural Networks: How accurate and competitive can PINNs be? [0.0]
本研究では、物理インフォームドニューラルネットワークの潜在的な精度について、従来の類似した研究や従来の数値手法と対比して検討する。
改良された最適化アルゴリズムを選択することで、結果の精度が大幅に向上することがわかった。
損失関数の簡単な修正は精度を向上し、拡張のための追加の道を提供する。
論文 参考訳(メタデータ) (2024-05-07T11:50:25Z) - Learning Large-scale Neural Fields via Context Pruned Meta-Learning [60.93679437452872]
本稿では,大規模ニューラルネットワーク学習のための最適化に基づくメタラーニング手法を提案する。
メタテスト時間における勾配再スケーリングは、非常に高品質なニューラルネットワークの学習を可能にすることを示す。
我々のフレームワークは、モデルに依存しない、直感的で、実装が容易であり、幅広い信号に対する大幅な再構成改善を示す。
論文 参考訳(メタデータ) (2023-02-01T17:32:16Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - Precision Machine Learning [5.15188009671301]
様々な関数近似法を比較し,パラメータやデータの増加とともにスケールする方法について検討する。
ニューラルネットワークは、しばしば高次元の例において古典的近似法より優れていることが判明した。
我々は,ニューラルネットワークを極端に低損失に訓練する訓練手法を開発した。
論文 参考訳(メタデータ) (2022-10-24T17:58:30Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Accelerating gradient-based topology optimization design with dual-model
neural networks [21.343803954998915]
この研究において、ニューラルネットワークは、前進および感度計算のための効率的な代理モデルとして使用される。
感度解析の精度を向上させるために、前方および感度データの両方でトレーニングされたデュアルモデルニューラルネットワークを構築した。
64x64という問題で得られた効率は、前方計算では137倍、感度解析では74倍である。
論文 参考訳(メタデータ) (2020-09-14T07:52:55Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。