論文の概要: Fault-Tolerant Deep Learning: A Hierarchical Perspective
- arxiv url: http://arxiv.org/abs/2204.01942v1
- Date: Tue, 5 Apr 2022 02:31:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 12:58:17.936309
- Title: Fault-Tolerant Deep Learning: A Hierarchical Perspective
- Title(参考訳): フォールトトレラントなディープラーニング:階層的視点
- Authors: Cheng Liu, Zhen Gao, Siting Liu, Xuefei Ning, Huawei Li, Xiaowei Li
- Abstract要約: 我々は、フォールトトレラントなディープラーニング設計アプローチに関する総合的な調査を行う。
モデル層, アーキテクチャ層, 回路層, クロス層からのアプローチについて検討する。
- 参考スコア(独自算出の注目度): 12.315753706063324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid advancements of deep learning in the past decade, it can be
foreseen that deep learning will be continuously deployed in more and more
safety-critical applications such as autonomous driving and robotics. In this
context, reliability turns out to be critical to the deployment of deep
learning in these applications and gradually becomes a first-class citizen
among the major design metrics like performance and energy efficiency.
Nevertheless, the back-box deep learning models combined with the diverse
underlying hardware faults make resilient deep learning extremely challenging.
In this special session, we conduct a comprehensive survey of fault-tolerant
deep learning design approaches with a hierarchical perspective and investigate
these approaches from model layer, architecture layer, circuit layer, and cross
layer respectively.
- Abstract(参考訳): 過去10年間のディープラーニングの急速な進歩により、自動運転やロボティクスなど、より安全クリティカルなアプリケーションにディープラーニングが継続的にデプロイされることが期待できる。
この文脈では、これらのアプリケーションへのディープラーニングのデプロイには信頼性が不可欠であることが分かり、徐々にパフォーマンスやエネルギー効率といった主要な設計指標の中で第一級市民になります。
それでも、バックボックスのディープラーニングモデルとさまざまなハードウェア障害の組み合わせは、レジリエントなディープラーニングを極めて困難にします。
本稿では,階層的な視点からフォールトトレラントなディープラーニング設計手法の包括的調査を行い,モデル層,アーキテクチャ層,回路層,クロス層からのアプローチについて検討する。
関連論文リスト
- Computation-efficient Deep Learning for Computer Vision: A Survey [121.84121397440337]
ディープラーニングモデルは、さまざまな視覚的知覚タスクにおいて、人間レベルのパフォーマンスに到達または超えた。
ディープラーニングモデルは通常、重要な計算資源を必要とし、現実のシナリオでは非現実的な電力消費、遅延、または二酸化炭素排出量につながる。
新しい研究の焦点は計算効率のよいディープラーニングであり、推論時の計算コストを最小限に抑えつつ、良好な性能を達成することを目指している。
論文 参考訳(メタデータ) (2023-08-27T03:55:28Z) - Efficient Learning of High Level Plans from Play [57.29562823883257]
本稿では,移動計画と深いRLを橋渡しするロボット学習のフレームワークであるELF-Pについて紹介する。
ELF-Pは、複数の現実的な操作タスクよりも、関連するベースラインよりもはるかに優れたサンプル効率を有することを示す。
論文 参考訳(メタデータ) (2023-03-16T20:09:47Z) - Design Automation for Fast, Lightweight, and Effective Deep Learning
Models: A Survey [53.258091735278875]
本調査では,エッジコンピューティングを対象としたディープラーニングモデルの設計自動化技術について述べる。
これは、有効性、軽量性、計算コストの観点からモデルの習熟度を定量化するために一般的に使用される主要なメトリクスの概要と比較を提供する。
この調査は、ディープモデル設計自動化技術の最先端の3つのカテゴリをカバーしている。
論文 参考訳(メタデータ) (2022-08-22T12:12:43Z) - Transferability in Deep Learning: A Survey [80.67296873915176]
知識を習得し再利用する能力は、ディープラーニングにおける伝達可能性として知られている。
本研究は,深層学習における異なる孤立領域と伝達可能性との関係を関連付けるための調査である。
我々はベンチマークとオープンソースライブラリを実装し、転送可能性の観点からディープラーニング手法の公平な評価を可能にする。
論文 参考訳(メタデータ) (2022-01-15T15:03:17Z) - On the combined effect of class imbalance and concept complexity in deep
learning [11.178586036657798]
本稿では,従来の機械学習システムでは困難であったような環境下でのディープラーニングシステムの振る舞いについて考察する。
深いアーキテクチャは構造的な概念の複雑さに役立ちますが、単純な人工ドメインで重複する課題には役立ちません。
オーバーフィッティングが人工ドメインよりも大きな関心事である現実世界の画像ドメインでは、より深いアーキテクチャの利点は明らかではない。
論文 参考訳(メタデータ) (2021-07-29T17:30:00Z) - Learning Task-aware Robust Deep Learning Systems [6.532642348343193]
ディープラーニングシステムは、ディープラーニングタスクとディープラーニングモデルという2つの部分から構成される。
本稿では、分類タスクを再定義するために、バイナリおよびインターバルラベル符号化方式を採用する。
本手法は,学習課題と深層モデルの両方から,ディープラーニングシステムの堅牢性を向上させるものとみなすことができる。
論文 参考訳(メタデータ) (2020-10-11T01:06:49Z) - Understanding Deep Architectures with Reasoning Layer [60.90906477693774]
本研究では,アルゴリズムの収束,安定性,感度といった特性が,エンドツーエンドモデルの近似と一般化能力と密接に関連していることを示す。
私たちの理論は、深いアーキテクチャを推論層で設計するための有用なガイドラインを提供することができます。
論文 参考訳(メタデータ) (2020-06-24T00:26:35Z) - Learning to Stop While Learning to Predict [85.7136203122784]
多くのアルゴリズムにインスパイアされたディープモデルは全ての入力に対して固定深度に制限される。
アルゴリズムと同様に、深いアーキテクチャの最適深さは、異なる入力インスタンスに対して異なるかもしれない。
本稿では, ステアブルアーキテクチャを用いて, この様々な深さ問題に対処する。
学習した深層モデルと停止ポリシーにより,多様なタスクセットのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-06-09T07:22:01Z) - Structure preserving deep learning [1.2263454117570958]
深層学習は、大きな関心事のトピックとして、前景に浮かび上がっています。
ディープラーニングの適用には、いくつかの挑戦的な数学的問題がある。
既存のディープラーニング手法の構造を数学的に理解する努力が増えている。
論文 参考訳(メタデータ) (2020-06-05T10:59:09Z) - Introducing Fuzzy Layers for Deep Learning [5.209583609264815]
ディープラーニングにはファジィレイヤという,新たなレイヤを導入しています。
従来、ニューラルネットワークのネットワークアーキテクチャは、入力層、隠された層の組み合わせ、出力層から構成されていた。
本稿では,ファジィ手法によって表現される強力な集約特性を活用するために,ファジィ層をディープラーニングアーキテクチャに導入することを提案する。
論文 参考訳(メタデータ) (2020-02-21T19:33:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。