論文の概要: Reusing Deep Learning Models: Challenges and Directions in Software Engineering
- arxiv url: http://arxiv.org/abs/2404.16688v1
- Date: Thu, 25 Apr 2024 15:42:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 13:10:51.037648
- Title: Reusing Deep Learning Models: Challenges and Directions in Software Engineering
- Title(参考訳): ディープラーニングモデルを再利用する - ソフトウェア工学の課題と方向性
- Authors: James C. Davis, Purvish Jajal, Wenxin Jiang, Taylor R. Schorlemmer, Nicholas Synovic, George K. Thiruvathukal,
- Abstract要約: ディープニューラルネットワーク(DNN)は多くの分野で最先端のパフォーマンスを達成する。
DNNは知的努力と計算コストの両方において開発に費用がかかる。
このビジョンペーパーは、DNNの再使用に対する現在のアプローチの課題について述べる。
- 参考スコア(独自算出の注目度): 3.733306025181894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) achieve state-of-the-art performance in many areas, including computer vision, system configuration, and question-answering. However, DNNs are expensive to develop, both in intellectual effort (e.g., devising new architectures) and computational costs (e.g., training). Reusing DNNs is a promising direction to amortize costs within a company and across the computing industry. As with any new technology, however, there are many challenges in reusing DNNs. These challenges include both missing technical capabilities and missing engineering practices. This vision paper describes challenges in current approaches to DNN re-use. We summarize studies of re-use failures across the spectrum of re-use techniques, including conceptual (e.g., reusing based on a research paper), adaptation (e.g., re-using by building on an existing implementation), and deployment (e.g., direct re-use on a new device). We outline possible advances that would improve each kind of re-use.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、コンピュータビジョン、システム構成、質問応答など、多くの分野で最先端のパフォーマンスを実現している。
しかし、DNNは、知的努力(例えば、新しいアーキテクチャを考案する)と計算コスト(例えば、トレーニング)の両方において、開発に費用がかかる。
DNNの再利用は、企業内およびコンピューティング業界全体におけるコストの削減に有望な方向である。
しかし、他の新しい技術と同様に、DNNの再利用には多くの課題がある。
これらの課題には、技術的能力の欠如とエンジニアリングプラクティスの欠如の両方が含まれる。
このビジョンペーパーは、DNNの再使用に対する現在のアプローチの課題について述べる。
本研究は, 再使用の失敗(例:研究論文に基づく再利用), 適応(例: 既存実装に基づく再利用), 展開(例: 新しいデバイスへの直接再利用)を含む, 再使用の失敗(例: 研究論文に基づく再利用)のスペクトルにわたる研究を要約する。
各種類の再利用を改善する可能性のある進歩について概説する。
関連論文リスト
- GhostRNN: Reducing State Redundancy in RNN with Cheap Operations [66.14054138609355]
本稿では,効率的なRNNアーキテクチャであるGhostRNNを提案する。
KWSとSEタスクの実験により、提案されたGhostRNNはメモリ使用量(40%)と計算コストを大幅に削減し、性能は類似している。
論文 参考訳(メタデータ) (2024-11-20T11:37:14Z) - Survey on Computer Vision Techniques for Internet-of-Things Devices [0.0]
ディープニューラルネットワーク(Deep Neural Network, DNN)は、コンピュータビジョン問題を解決する最先端技術である。
DNNは最先端の結果を得るために数十億のパラメータと演算を必要とする。
この要件により、DNNは計算量、メモリ、エネルギー不足を極端に増加させ、結果として限られたコンピューティングリソースを持つ小さなバッテリ駆動のIoT(Internet-of-Things)デバイスにデプロイすることが困難になる。
論文 参考訳(メタデータ) (2023-08-02T03:41:24Z) - Transferability of Convolutional Neural Networks in Stationary Learning
Tasks [96.00428692404354]
本稿では,大規模な空間問題に対する畳み込みニューラルネットワーク(CNN)の効率的なトレーニングのための新しいフレームワークを提案する。
このような信号の小さなウィンドウで訓練されたCNNは、再学習することなく、はるかに大きなウィンドウでほぼ性能を発揮することを示す。
以上の結果から,CNNは10人未満の訓練を受けた後,数百人のエージェントによる問題に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-07-21T13:51:45Z) - Neural Architecture Search for Dense Prediction Tasks in Computer Vision [74.9839082859151]
ディープラーニングは、ニューラルネットワークアーキテクチャエンジニアリングに対する需要の高まりにつながっている。
ニューラルネットワーク検索(NAS)は、手動ではなく、データ駆動方式でニューラルネットワークアーキテクチャを自動設計することを目的としている。
NASはコンピュータビジョンの幅広い問題に適用されている。
論文 参考訳(メタデータ) (2022-02-15T08:06:50Z) - ArchRepair: Block-Level Architecture-Oriented Repairing for Deep Neural
Networks [13.661704974188872]
本稿では,ブロックレベルでのディープニューラルネットワーク(DNN)の新たな修復方向を提案する。
本稿では,脆弱なブロックローカライゼーションのための逆アウェアスペクトル分析法を提案する。
また,対象のブロックを連続的に修復する検索空間に緩和するアーキテクチャ指向の検索ベース修復を提案する。
論文 参考訳(メタデータ) (2021-11-26T06:35:15Z) - Pruning and Slicing Neural Networks using Formal Verification [0.2538209532048866]
ディープニューラルネットワーク(DNN)は、様々なコンピュータシステムにおいてますます重要な役割を担っている。
これらのネットワークを作成するために、エンジニアは通常、望ましいトポロジを指定し、自動トレーニングアルゴリズムを使用してネットワークの重みを選択する。
本稿では,近年のDNN検証の進歩を活用して,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2021-05-28T07:53:50Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Neuroevolution in Deep Neural Networks: Current Trends and Future
Challenges [0.0]
人工深層ニューラルネットワーク(DNN)のアーキテクチャ構成と学習,あるいはトレーニングに,さまざまな手法が適用されている。
進化的アルゴリズム(EA)は、DNNの自動最適化とトレーニングのための計算可能な方法として勢いを増している。
本稿では,DNNのアーキテクチャ構成とトレーニングにEAを用いた最先端の作業について,総合的な調査,議論,評価を行う。
論文 参考訳(メタデータ) (2020-06-09T17:28:25Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。