論文の概要: Premium Access to Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2005.11100v1
- Date: Fri, 22 May 2020 10:54:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 09:51:29.976340
- Title: Premium Access to Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークへのプレミアムアクセス
- Authors: Julien Bringer and Herv\'e Chabanne and Linda Guiga
- Abstract要約: ニューラルネットワーク(NN)へのアクセスを制限する方法を示す。
私たちのソリューションは、PINによって修正できる劣化した実装に依存しています。
提案手法の実践性を証明するため,提案手法を深部NNに実装した実験を報告する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Networks (NNs) are today used for all our daily tasks; for instance,
in mobile phones. We here want to show how to restrict their access to
privileged users. Our solution relies on a degraded implementation which can be
corrected thanks to a PIN. We explain how to select a few parameters in an NN
so as to maximize the gap in the accuracy between the premium and the degraded
modes. We report experiments on an implementation of our proposal on a deep NN
to prove its practicability.
- Abstract(参考訳): ニューラルネットワーク(NN)は現在、携帯電話など、日々のタスクすべてに使用されています。
ここでは特権のあるユーザーへのアクセスを制限する方法を紹介したい。
私たちのソリューションは、PINによって修正できる劣化した実装に依存しています。
本稿では,高次モードと劣化モードの精度のギャップを最大化するために,NNでいくつかのパラメータを選択する方法を説明する。
本提案は,その実用性を証明するため,深層nnにおける実装実験を報告する。
関連論文リスト
- Forward Learning of Graph Neural Networks [17.79590285482424]
バックプロパゲーション(BP)はディープニューラルネットワーク(NN)のトレーニングにおけるデファクトスタンダードである
BPは、生物学的に理解できないだけでなく、NN学習のスケーラビリティ、並列性、柔軟性を制限しているいくつかの制約を課している。
本稿では,BPの制約を回避するために,実効的なレイヤワイドローカルフォワードトレーニングを行うForwardGNNを提案する。
論文 参考訳(メタデータ) (2024-03-16T19:40:35Z) - Ensemble DNN for Age-of-Information Minimization in UAV-assisted
Networks [3.022402703265608]
本稿では,UAV支援ネットワークにおける情報化時代(AoI)の問題に対処する。
アンサンブルのディープニューラルネットワーク(DNN)は、研究対象のラグランジアン関数を用いて教師なしの方法で訓練される。
論文 参考訳(メタデータ) (2023-09-06T11:19:26Z) - SEENN: Towards Temporal Spiking Early-Exit Neural Networks [26.405775809170308]
スパイキングニューラルネットワーク(SNN)は、最近、従来のニューラルネットワーク(ANN)の生物学的にもっともらしい代替品として人気が高まっている。
本研究では,SNNにおける時間経過の微調整について検討する。
時間ステップ数を動的に調整することにより、SEENNは推論中の平均時間ステップ数を著しく削減する。
論文 参考訳(メタデータ) (2023-04-02T15:57:09Z) - Energy Regularized RNNs for Solving Non-Stationary Bandit Problems [97.72614340294547]
我々は、ニューラルネットワークが特定の行動を支持するのに自信過剰になるのを防ぐエネルギー用語を提案する。
提案手法は,ロッティングバンドのサブプロブレムを解く方法と同じくらい有効であることを示す。
論文 参考訳(メタデータ) (2023-03-12T03:32:43Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - POLICE: Provably Optimal Linear Constraint Enforcement for Deep Neural
Networks [19.587273175563745]
本稿では,Deep Neural Networks (DNN) のための最初の証明可能なアフィン拘束法を提案する。
本手法はサンプリングを一切必要とせず,DNNが任意の点において与えられた入力空間の領域上のアフィン制約を満たすことを確実に保証する。
論文 参考訳(メタデータ) (2022-11-02T17:48:52Z) - Automated Repair of Neural Networks [0.26651200086513094]
安全でないNNの安全仕様を修復するためのフレームワークを提案する。
提案手法では,重み値のいくつかを修正して,新しい安全なNN表現を探索することができる。
我々は,提案するフレームワークが安全なNNを実現する能力を示す広範な実験を行った。
論文 参考訳(メタデータ) (2022-07-17T12:42:24Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。