論文の概要: Data Classification with Dynamically Growing and Shrinking Neural Networks
- arxiv url: http://arxiv.org/abs/2507.01043v1
- Date: Mon, 23 Jun 2025 19:52:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.787606
- Title: Data Classification with Dynamically Growing and Shrinking Neural Networks
- Title(参考訳): 動的成長・収縮型ニューラルネットワークを用いたデータ分類
- Authors: Szymon Świderski, Agnieszka Jastrzębska,
- Abstract要約: トレーニング中のモデルの動的縮小と成長を可能にするプロシージャを備えたニューラルネットワークの作り方の詳細を示す。
提案手法は,視覚と時系列の両方のデータセットを用いて検証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The issue of data-driven neural network model construction is one of the core problems in the domain of Artificial Intelligence. A standard approach assumes a fixed architecture with trainable weights. A conceptually more advanced assumption is that we not only train the weights, but also find out the optimal model architecture. We present a new method that realizes just that. This article is an extended version of our conference paper titled "Dynamic Growing and Shrinking of Neural Networks with Monte Carlo Tree Search [26]". In the paper, we show in detail how to create a neural network with a procedure that allows dynamic shrinking and growing of the model while it is being trained. The decision-making mechanism for the architectural design is governed by a Monte Carlo tree search procedure which simulates network behavior and allows to compare several candidate architecture changes to choose the best one. The proposed method was validated using both visual and time series datasets, demonstrating its particular effectiveness in multivariate time series classification. This is attributed to the architecture's ability to adapt dynamically, allowing independent modifications for each time series. The approach is supplemented by Python source code for reproducibility. Experimental evaluations in visual pattern and multivariate time series classification tasks revealed highly promising performance, underscoring the method's robustness and adaptability.
- Abstract(参考訳): データ駆動型ニューラルネットワークモデル構築の問題は、人工知能の領域における中核的な問題のひとつだ。
標準的なアプローチでは、トレーニング可能な重み付き固定アーキテクチャを前提としている。
概念的により先進的な仮定は、ウェイトをトレーニングするだけでなく、最適なモデルアーキテクチャも見つけ出すということです。
我々はそれを実現する新しい方法を提案する。
この記事は、“Dynamic Growing and Shrinking of Neural Networks with Monte Carlo Tree Search [26]”と題するカンファレンスペーパーの拡張版である。
本稿では、トレーニング中のモデルの動的縮小と成長を可能にするプロシージャを用いたニューラルネットワークの作り方について詳述する。
アーキテクチャ設計の意思決定メカニズムは、モンテカルロ木探索手順によって制御され、ネットワークの振る舞いをシミュレートし、最もよいものを選択するためにいくつかのアーキテクチャ変更を比較することができる。
提案手法は,多変量時系列分類において,視覚的,時間的両方のデータセットを用いて検証し,その有効性を実証した。
これはアーキテクチャが動的に適応する能力に起因しており、各時系列に対して独立した変更が可能である。
このアプローチは、再現性のためにPythonソースコードで補完されている。
視覚パターンと多変量時系列分類タスクの実験的評価により、高い有望な性能を示し、手法の頑健さと適応性を強調した。
関連論文リスト
- Orchid: Flexible and Data-Dependent Convolution for Sequence Modeling [4.190836962132713]
本稿では,従来の注意機構の2次複雑さに対処する新しいアーキテクチャであるOrchidを紹介する。
このアーキテクチャのコアには、新しいデータ依存のグローバル畳み込み層があり、入力シーケンスに条件付きカーネルを文脈的に適応させる。
言語モデリングや画像分類など,複数の領域にまたがるモデルの評価を行い,その性能と汎用性を強調した。
論文 参考訳(メタデータ) (2024-02-28T17:36:45Z) - SortedNet: A Scalable and Generalized Framework for Training Modular Deep Neural Networks [30.069353400127046]
我々は、ディープニューラルネットワーク(DNN)の固有のモジュラリティを活用するためにSortedNetを提案する。
SortedNetは、メインモデルのトレーニングと同時にサブモデルのトレーニングを可能にする。
一度に160台のサブモデルを訓練でき、オリジナルのモデルの性能の少なくとも96%を達成できる。
論文 参考訳(メタデータ) (2023-09-01T05:12:25Z) - Tensor-based Sequential Learning via Hankel Matrix Representation for
Next Item Recommendations [0.0]
自己注意型トランスフォーマーモデルは、次の項目の推薦タスクを非常に効率的に解くことが示されている。
学習パラメータ空間の特別な構造に動機付けられ、それに代わるより軽量なアプローチでそれを模倣できるかどうかを疑問視する。
学習プロセス内のシーケンシャルデータに関する構造的知識を生かしたテンソル分解に基づく新しいモデルを開発する。
論文 参考訳(メタデータ) (2022-12-12T05:55:40Z) - Robust Graph Representation Learning via Predictive Coding [46.22695915912123]
予測符号化は、当初脳の情報処理をモデル化するために開発されたメッセージパッシングフレームワークである。
本研究では,予測符号化のメッセージパス規則に依存するモデルを構築する。
提案したモデルは,帰納的タスクと帰納的タスクの両方において,標準的なモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2022-12-09T03:58:22Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Dynamically-Scaled Deep Canonical Correlation Analysis [77.34726150561087]
カノニカル相関解析 (CCA) は, 2つのビューの特徴抽出手法である。
本稿では,入力依存の正準相関モデルをトレーニングするための新しい動的スケーリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T12:52:49Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。