論文の概要: A Light in the Dark: Deep Learning Practices for Industrial Computer
Vision
- arxiv url: http://arxiv.org/abs/2201.02028v1
- Date: Thu, 6 Jan 2022 12:36:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-07 14:34:26.220078
- Title: A Light in the Dark: Deep Learning Practices for Industrial Computer
Vision
- Title(参考訳): a light in the dark: 産業用コンピュータビジョンのためのディープラーニングの実践
- Authors: Maximilian Harl, Marvin Herchenbach, Sven Kruschel, Nico Hambauer,
Patrick Zschech, Mathias Kraus
- Abstract要約: 私たちは、スクラッチからトレーニングするコンピュータビジョンのためのニューラルネットワークを研究します。
我々のニューラルネットワークは、事前訓練されたDNNと同様のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 5.941707327283996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, large pre-trained deep neural networks (DNNs) have
revolutionized the field of computer vision (CV). Although these DNNs have been
shown to be very well suited for general image recognition tasks, application
in industry is often precluded for three reasons: 1) large pre-trained DNNs are
built on hundreds of millions of parameters, making deployment on many devices
impossible, 2) the underlying dataset for pre-training consists of general
objects, while industrial cases often consist of very specific objects, such as
structures on solar wafers, 3) potentially biased pre-trained DNNs raise legal
issues for companies. As a remedy, we study neural networks for CV that we
train from scratch. For this purpose, we use a real-world case from a solar
wafer manufacturer. We find that our neural networks achieve similar
performances as pre-trained DNNs, even though they consist of far fewer
parameters and do not rely on third-party datasets.
- Abstract(参考訳): 近年、大規模な事前学習型ディープニューラルネットワーク(DNN)がコンピュータビジョン(CV)の分野に革命をもたらした。
これらのDNNは一般的な画像認識タスクに非常に適していることが示されているが、業界での応用は3つの理由から除外されることが多い。
1) トレーニング済みの大きなDNNは数億のパラメータ上に構築されており、多くのデバイスへのデプロイが不可能である。
2) プレトレーニングの基盤となるデータセットは一般的な対象からなり, 産業ケースは太陽ウェハの構造など, 非常に特異な対象から構成されることが多い。
3) 事前訓練済みのDNNは企業に対して法的問題を提起する可能性がある。
治療として、私たちはスクラッチからトレーニングするCVのニューラルネットワークを研究します。
この目的のために、私たちはソーラーウェハメーカーの現実世界のケースを使用します。
ニューラルネットワークは、パラメータがはるかに少なく、サードパーティのデータセットに依存しないにもかかわらず、トレーニング済みのDNNと同じようなパフォーマンスを実現しています。
関連論文リスト
- Scaling Deep Learning Research with Kubernetes on the NRP Nautilus HyperCluster [1.2731671380229848]
合計で234のディープニューラルモデルがNautilusで4,040時間トレーニングされている。
本研究では,NRP Nautilus HyperClusterを用いたディープラーニングモデルトレーニングの自動化とスケールアップについて検討する。
論文 参考訳(メタデータ) (2024-11-18T20:19:49Z) - NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - MatchNAS: Optimizing Edge AI in Sparse-Label Data Contexts via
Automating Deep Neural Network Porting for Mobile Deployment [54.77943671991863]
MatchNASはDeep Neural Networksをモバイルデバイスに移植するための新しいスキームである。
ラベル付きデータと非ラベル付きデータの両方を用いて、大規模なネットワークファミリを最適化する。
そして、さまざまなハードウェアプラットフォーム用に調整されたネットワークを自動的に検索する。
論文 参考訳(メタデータ) (2024-02-21T04:43:12Z) - Poster: Link between Bias, Node Sensitivity and Long-Tail Distribution
in trained DNNs [12.404169549562523]
長い尾の分布を持つトレーニングデータセットはディープニューラルネットワーク(DNN)に挑戦する
この研究は、異なる出力クラスに対するノードの感度の変化につながるノードバイアスを特定する。
実世界のデータセットでトレーニングされたネットワークの実証的なケーススタディを用いて、推論を支援する。
論文 参考訳(メタデータ) (2023-03-29T10:49:31Z) - Enabling Deep Learning on Edge Devices [2.741266294612776]
ディープニューラルネットワーク(DNN)は、コンピュータビジョン、自然言語処理、強化学習など、多くの異なる認識タスクに成功している。
高性能DNNは資源消費に大きく依存している。
近年、AR/VR、モバイルアシスタント、モノのインターネットなど、新たなインテリジェントなアプリケーションでは、リソース制約のあるエッジデバイスにDNNをデプロイする必要があります。
この論文では,エッジデバイスへの推論,エッジデバイスへの適応,エッジデバイスへの学習,エッジサーバシステムという4つのエッジインテリジェンスシナリオについて検討した。
論文 参考訳(メタデータ) (2022-10-06T20:52:57Z) - Uncertainty Quantification and Resource-Demanding Computer Vision
Applications of Deep Learning [5.130440339897478]
ディープニューラルネットワーク(DNN)を安全クリティカルなアプリケーションに導入するには、モデルの不確実性を徹底的に扱う必要がある。
本稿では、新しいオブジェクトクラスに遭遇したとき、DNNに不確実性を示す方法について調査する。
また、不確実性定量化の助けを借りて、少数のラベルから学習する訓練方法を提案する。
論文 参考訳(メタデータ) (2022-05-30T08:31:03Z) - 2D versus 3D Convolutional Spiking Neural Networks Trained with
Unsupervised STDP for Human Action Recognition [1.9981375888949475]
スパイキングニューラルネットワーク(スパイキングニューラルネット、英: Spiking Neural Network、SNN)は、スパイクの形で情報を処理する第3世代生物可塑性モデルである。
スパイクタイミング依存塑性(STDP)ルールを用いたSNNによる教師なし学習は、ボトルネックを克服する可能性がある。
本稿では,STDPベースの畳み込みSNNが3次元カーネルを用いて動きパターンを学習し,動画からの動きに基づく認識を可能にすることを示す。
論文 参考訳(メタデータ) (2022-05-26T16:34:22Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Neural Networks and Value at Risk [59.85784504799224]
リスクしきい値推定における資産価値のモンテカルロシミュレーションを行う。
株式市場と長期債を試験資産として利用し、ニューラルネットワークについて検討する。
はるかに少ないデータでフィードされたネットワークは、大幅にパフォーマンスが悪くなっています。
論文 参考訳(メタデータ) (2020-05-04T17:41:59Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z) - Event-Based Angular Velocity Regression with Spiking Networks [51.145071093099396]
スパイキングニューラルネットワーク(SNN)は、数値ではなく時間スパイクとして伝達される情報を処理する。
本稿では,イベントカメラから与えられた事象の時間回帰問題を初めて提案する。
角速度回帰を行うためにSNNをうまく訓練できることが示される。
論文 参考訳(メタデータ) (2020-03-05T17:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。