論文の概要: Solving Large-scale Spatial Problems with Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2306.08191v1
- Date: Wed, 14 Jun 2023 01:24:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 20:45:28.794505
- Title: Solving Large-scale Spatial Problems with Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークによる大規模空間問題の解法
- Authors: Damian Owerko, Charilaos I. Kanatsoulis, Charilaos I. Kanatsoulis
- Abstract要約: 大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
- 参考スコア(独自算出の注目度): 4.43457632632169
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past decade, deep learning research has been accelerated by
increasingly powerful hardware, which facilitated rapid growth in the model
complexity and the amount of data ingested. This is becoming unsustainable and
therefore refocusing on efficiency is necessary. In this paper, we employ
transfer learning to improve training efficiency for large-scale spatial
problems. We propose that a convolutional neural network (CNN) can be trained
on small windows of signals, but evaluated on arbitrarily large signals with
little to no performance degradation, and provide a theoretical bound on the
resulting generalization error. Our proof leverages shift-equivariance of CNNs,
a property that is underexploited in transfer learning. The theoretical results
are experimentally supported in the context of mobile infrastructure on demand
(MID). The proposed approach is able to tackle MID at large scales with
hundreds of agents, which was computationally intractable prior to this work.
- Abstract(参考訳): 過去10年間で、ディープラーニングの研究はますます強力なハードウェアによって加速され、モデルの複雑さとデータ量の増加が促進された。
これは持続不可能になりつつあるため、効率に再フォーカスする必要がある。
本稿では,大規模空間問題に対する学習効率を向上させるために,トランスファー学習を用いる。
畳み込みニューラルネットワーク (cnn) は, 信号の小さな窓上で学習できるが, 性能劣化が少なく, 任意に大きい信号で評価し, 結果の一般化誤差に対する理論的拘束力を提供する。
我々の証明は、伝達学習において過小評価されている特性であるCNNのシフト等価性を利用する。
理論的結果は、モバイルインフラの需要(MID)の文脈で実験的に支持される。
提案手法は数百のエージェントで大規模に中規模に取り組むことが可能であり,その前に計算処理が難しかった。
関連論文リスト
- Apply Distributed CNN on Genomics to accelerate Transcription-Factor TAL1 Motif Prediction [0.0]
ゲノミクスの分野におけるディープラーニングの可能性と、数時間、数週間、場合によっては数ヶ月のトレーニング時間などの課題を強調します。
本稿では,CNN(Convolutional Neural Networks)に基づく分散ディープラーニングの実装を提案する。
転写因子TAL1モチーフを高速に予測するために,データ並列性に基づく分散戦略を用いることの有効性を実証した。
論文 参考訳(メタデータ) (2024-05-25T07:09:44Z) - Transferability of Convolutional Neural Networks in Stationary Learning
Tasks [96.00428692404354]
本稿では,大規模な空間問題に対する畳み込みニューラルネットワーク(CNN)の効率的なトレーニングのための新しいフレームワークを提案する。
このような信号の小さなウィンドウで訓練されたCNNは、再学習することなく、はるかに大きなウィンドウでほぼ性能を発揮することを示す。
以上の結果から,CNNは10人未満の訓練を受けた後,数百人のエージェントによる問題に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-07-21T13:51:45Z) - Decouple Graph Neural Networks: Train Multiple Simple GNNs Simultaneously Instead of One [60.5818387068983]
グラフニューラルネットワーク(GNN)は、深刻な非効率性に悩まされている。
我々は,より効率的なトレーニングを行うために,多層GNNを複数の単純なモジュールとして分離することを提案する。
提案するフレームワークは,合理的な性能で高い効率性を示す。
論文 参考訳(メタデータ) (2023-04-20T07:21:32Z) - A Principle of Least Action for the Training of Neural Networks [10.342408668490975]
ネットワークの輸送マップに低運動エネルギー偏差バイアスが存在することを示し、このバイアスと一般化性能を関連づける。
本稿では,与えられたタスクの複雑さに自動的に適応する新しい学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-17T15:37:34Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z) - Model-Driven Beamforming Neural Networks [47.754731555563836]
本稿では、一般データおよびモデル駆動ビームフォーミングニューラルネットワーク(BNN)を紹介する。
様々な学習戦略を示し、DLベースのBNNの複雑さの低減についても論じている。
また、BNNの汎用性を向上させるため、トレーニングセットの強化や伝達学習などの強化手法も提供する。
論文 参考訳(メタデータ) (2020-01-15T12:50:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。