論文の概要: Dependable Neural Networks Through Redundancy, A Comparison of Redundant
Architectures
- arxiv url: http://arxiv.org/abs/2108.02565v1
- Date: Fri, 30 Jul 2021 12:17:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-08 11:07:15.816572
- Title: Dependable Neural Networks Through Redundancy, A Comparison of Redundant
Architectures
- Title(参考訳): 冗長性による依存型ニューラルネットワーク -冗長アーキテクチャの比較-
- Authors: Hans Dermot Doran, Gianluca Ielpo, David Ganz, Michael Zapke
- Abstract要約: ロックステップソリューションを検討する前に、一般的な実装の観点から信頼性の問題について議論する。
2つの類似したニューラルネットワークが正確に同じタイミングで結果を生成し、プラットフォーム間の同期が必要とされることは、必ずしも前提ではない、と私たちは考えています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With edge-AI finding an increasing number of real-world applications,
especially in industry, the question of functionally safe applications using AI
has begun to be asked. In this body of work, we explore the issue of achieving
dependable operation of neural networks. We discuss the issue of dependability
in general implementation terms before examining lockstep solutions. We intuit
that it is not necessarily a given that two similar neural networks generate
results at precisely the same time and that synchronization between the
platforms will be required. We perform some preliminary measurements that may
support this intuition and introduce some work in implementing lockstep neural
network engines.
- Abstract(参考訳): エッジAIが、特に業界において、現実世界のアプリケーションの増加を見出したことで、AIを使用した機能的に安全なアプリケーションに関する疑問が提起され始めている。
本稿では,ニューラルネットワークの信頼性の高い動作を実現するための課題について考察する。
ロックステップソリューションを検討する前に,一般的な実装用語における依存性の問題について議論する。
2つの類似したニューラルネットワークが正確に同時に結果を生成し、プラットフォーム間の同期が必要となるのは、必ずしも当然のことではありません。
この直観を裏付ける予備的な測定を行い、ロックステップニューラルネットワークエンジンの実装にいくつかの取り組みを導入する。
関連論文リスト
- Interpreting Neural Networks through Mahalanobis Distance [0.0]
本稿では,ニューラルネットワークの線形層とマハラノビス距離を結合する理論的枠組みを提案する。
この研究は理論的であり、経験的データを含んでいないが、提案された距離に基づく解釈は、モデルロバスト性を高め、一般化を改善し、ニューラルネットワークの決定をより直観的な説明を提供する可能性がある。
論文 参考訳(メタデータ) (2024-10-25T07:21:44Z) - LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Split-Et-Impera: A Framework for the Design of Distributed Deep Learning
Applications [8.434224141580758]
Split-Et-Imperaは、ディープネットワークの解釈可能性の原則に基づいて、ニューラルネットワークのベストスプリットポイントのセットを決定する。
異なるニューラルネットワーク再構成の迅速な評価のための通信認識シミュレーションを実行する。
これは、アプリケーションのサービス要件の品質と、正確性とレイテンシ時間の観点からのパフォーマンスのベストマッチを示唆している。
論文 参考訳(メタデータ) (2023-03-22T13:00:00Z) - Sparse Interaction Additive Networks via Feature Interaction Detection
and Sparse Selection [10.191597755296163]
我々は,必要な特徴の組み合わせを効率的に識別する,抽出可能な選択アルゴリズムを開発した。
提案するスパース・インタラクション・アダプティブ・ネットワーク(SIAN)は,単純かつ解釈可能なモデルから完全に接続されたニューラルネットワークへのブリッジを構築する。
論文 参考訳(メタデータ) (2022-09-19T19:57:17Z) - Exploring the Intersection between Neural Architecture Search and
Continual Learning [0.2148535041822524]
ニューラルネットワークの継続的な適応性と自動化は、いくつかの領域において最重要となる。
本研究では,ニューラル・アーキテクチャ・サーチ(NAS)と継続学習(CL)の交点を網羅的に検討する。
論文 参考訳(メタデータ) (2022-06-11T22:26:53Z) - Quasi-orthogonality and intrinsic dimensions as measures of learning and
generalisation [55.80128181112308]
ニューラルネットワークの特徴空間の次元性と準直交性は、ネットワークの性能差別と共同して機能する可能性があることを示す。
本研究は, ネットワークの最終的な性能と, ランダムに初期化された特徴空間の特性との関係を示唆する。
論文 参考訳(メタデータ) (2022-03-30T21:47:32Z) - What can linearized neural networks actually say about generalization? [67.83999394554621]
ある無限大のニューラルネットワークにおいて、ニューラル・タンジェント・カーネル(NTK)理論は一般化を完全に特徴づける。
線形近似は、ニューラルネットワークの特定のタスクの学習複雑性を確実にランク付けできることを示す。
我々の研究は、将来の理論的研究を刺激する新しい深層学習現象の具体例を提供する。
論文 参考訳(メタデータ) (2021-06-12T13:05:11Z) - Rethinking Neural Operations for Diverse Tasks [22.998431126801254]
標準マルチチャネル畳み込みの帰納的バイアスを模倣するxd演算と呼ばれるニューラルネットワークの探索空間を導入する。
LeNetやResNetなどのバックボーンネットワークをXD-Operations上のアーキテクチャ検索空間に変換する方法を紹介します。
我々のアプローチは、ベースラインネットワークよりもエラーが少なく、時には専門家が設計したドメイン固有のアプローチよりもエラーが少ないモデルを生成する。
論文 参考訳(メタデータ) (2021-03-29T17:50:39Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。