論文の概要: Safe Use of Neural Networks
- arxiv url: http://arxiv.org/abs/2306.08086v1
- Date: Tue, 13 Jun 2023 19:07:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 23:00:53.509085
- Title: Safe Use of Neural Networks
- Title(参考訳): ニューラルネットワークの安全な利用
- Authors: George Redinbo
- Abstract要約: ネットワークの処理ステップで算術誤差を検出できる数値ベースのコードを使用する。
1つのパリティのセットはセクションの出力から取得され、もう1つの同等のセットは元の入力から直接開発される。
我々は,データセットの規模が大きいため,長い数値ベースの畳み込み符号の使用に重点を置いている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks in modern communication systems can be susceptible to
internal numerical errors that can drastically effect decision results. Such
structures are composed of many sections each of which generally contain
weighting operations and activation function evaluations. The safe use comes
from methods employing number based codes that can detect arithmetic errors in
the network's processing steps. Each set of operations generates parity values
dictated by a code in two ways. One set of parities is obtained from a
section's outputs while a second comparable set is developed directly from the
original inputs. The parity values protecting the activation functions involve
a Taylor series approximation to the activation functions. We focus on using
long numerically based convolutional codes because of the large size of data
sets. The codes are based on Discrete Fourier Transform kernels and there are
many design options available. Mathematical program simulations show our
error-detecting techniques are effective and efficient.
- Abstract(参考訳): 現代の通信システムにおけるニューラルネットワークは、内部の数値誤差の影響を受けやすいため、決定結果に大きな影響を及ぼす可能性がある。
このような構造は、一般に重み付け操作と活性化関数評価を含む多くのセクションで構成されている。
安全な使用法は、ネットワークの処理ステップで算術誤差を検出できる数値ベースのコードを使用する方法に由来する。
各操作セットは、2つの方法でコードによって規定されるパリティ値を生成する。
1組のパリティは1つのセクションの出力から得られ、2つめの同等のセットは元の入力から直接開発される。
活性化関数を保護するパリティ値は、活性化関数にテイラー級数近似を含む。
我々は,データセットのサイズが大きいため,長い数値に基づく畳み込み符号の使用に注目する。
コードは離散フーリエ変換カーネルをベースにしており、多くの設計オプションがある。
プログラムシミュレーションにより,誤差検出手法は効率的かつ効率的であることが示されている。
関連論文リスト
- Your Network May Need to Be Rewritten: Network Adversarial Based on High-Dimensional Function Graph Decomposition [0.994853090657971]
本稿では,上記の課題に対処するネットワーク敵手法を提案する。
これはネットワーク内で異なるアクティベーション関数を使用する最初の方法である。
トレーニング効率と予測精度の両面で,標準的なアクティベーション機能よりも大幅に向上した。
論文 参考訳(メタデータ) (2024-05-04T11:22:30Z) - Designed Dithering Sign Activation for Binary Neural Networks [15.087814338685968]
本研究は,複数の閾値をディザリングの原理に従って適用し,空間的に周期的なしきい値カーネルに従って各画素の符号活性化関数をシフトするアクティベーションを提案する。
分類タスクに関する実験は、計算コストを増大させることなく、バイナリニューラルネットワークの代替活性化として設計されたディザリングサイン活性化関数の有効性を示す。
論文 参考訳(メタデータ) (2024-05-03T16:27:39Z) - FoC: Figure out the Cryptographic Functions in Stripped Binaries with LLMs [54.27040631527217]
削除されたバイナリの暗号関数を抽出するFoCと呼ばれる新しいフレームワークを提案する。
まず、自然言語における暗号関数のセマンティクスを要約するために、バイナリ大言語モデル(FoC-BinLLM)を構築した。
次に、FoC-BinLLM上にバイナリコード類似モデル(FoC-Sim)を構築し、変更に敏感な表現を作成し、データベース内の未知の暗号関数の類似実装を検索する。
論文 参考訳(メタデータ) (2024-03-27T09:45:33Z) - Expressive Power of ReLU and Step Networks under Floating-Point Operations [11.29958155597398]
二項しきい値単位またはReLUを用いたニューラルネットワークは、任意の有限入力/出力ペアを記憶可能であることを示す。
また,浮動小数点演算が有意および指数の両方に有限ビットを使用する場合,暗記および普遍近似に関する同様の結果を示す。
論文 参考訳(メタデータ) (2024-01-26T05:59:40Z) - Provable Data Subset Selection For Efficient Neural Network Training [73.34254513162898]
本稿では,任意の放射基底関数ネットワーク上での入力データの損失を近似する,emphRBFNNのコアセットを構成するアルゴリズムについて紹介する。
次に、一般的なネットワークアーキテクチャやデータセット上で、関数近似とデータセットサブセットの選択に関する経験的評価を行う。
論文 参考訳(メタデータ) (2023-03-09T10:08:34Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - HD-cos Networks: Efficient Neural Architectures for Secure Multi-Party
Computation [26.67099154998755]
マルチパーティ計算(MPC、Multi-party calculation)は、暗号化の分野の一つで、複数の非解決パーティが関数を安全に計算するためのプロトコルを実行する。
MPC設定下でニューラルネットワークのトレーニングと推論について検討する。
どちらの手法も、MPC設定下での強力な理論的モチベーションと効率的な計算を享受できることを示す。
論文 参考訳(メタデータ) (2021-10-28T21:15:11Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - A sparse code increases the speed and efficiency of neuro-dynamic
programming for optimal control tasks with correlated inputs [0.0]
スパースコードは、ニューロダイナミックプログラミングで解決された最適な制御タスクにおいて、自然なイメージを表現するために使用される。
オーバーコンプリートスパース符号の2.25倍は、同じ入力を使用する完全スパース符号と比較して少なくとも2倍のメモリ容量を示す。
これはシーケンシャルラーニングにおいて、ネットワークに潜在的に多くの最適な制御タスクを格納するために使用される。
論文 参考訳(メタデータ) (2020-06-22T01:58:11Z) - Automatic Differentiation in ROOT [62.997667081978825]
数学と計算機代数において、自動微分 (AD) は、コンピュータプログラムによって指定された関数の微分を評価するための一連の技術である。
本稿では、任意のC/C++関数の導関数を生成するために、ClingがサポートするROOTで利用可能なAD技術を提案する。
論文 参考訳(メタデータ) (2020-04-09T09:18:50Z) - Lagrangian Decomposition for Neural Network Verification [148.0448557991349]
ニューラルネットワーク検証の基本的なコンポーネントは、出力が取ることのできる値のバウンダリの計算である。
ラグランジアン分解に基づく新しい手法を提案する。
ランニングタイムのごく一部で、既成の解法に匹敵するバウンダリが得られることを示す。
論文 参考訳(メタデータ) (2020-02-24T17:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。