論文の概要: Synchronization of Tree Parity Machines using non-binary input vectors
- arxiv url: http://arxiv.org/abs/2104.11105v1
- Date: Thu, 22 Apr 2021 14:38:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 17:32:44.915308
- Title: Synchronization of Tree Parity Machines using non-binary input vectors
- Title(参考訳): 非バイナリ入力ベクトルを用いた樹木親機同期
- Authors: Mi{\l}osz Stypi\'nski, Marcin Niemiec
- Abstract要約: 本稿では,2台のツリーパリティマシンの同期化の改善を提案する。
この改良は、2進法よりも幅広い値を持つ入力ベクトルを用いた人工ニューラルネットワークの学習に基づいている。
- 参考スコア(独自算出の注目度): 0.9095250823175104
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural cryptography is the application of artificial neural networks in the
subject of cryptography. The functionality of this solution is based on a tree
parity machine. It uses artificial neural networks to perform secure key
exchange between network entities. This article proposes improvements to the
synchronization of two tree parity machines. The improvement is based on
learning artificial neural network using input vectors which have a wider range
of values than binary ones. As a result, the duration of the synchronization
process is reduced. Therefore, tree parity machines achieve common weights in a
shorter time due to the reduction of necessary bit exchanges. This approach
improves the security of neural cryptography
- Abstract(参考訳): ニューラルネットワークは、暗号の分野におけるニューラルネットワークの応用である。
このソリューションの機能はツリーパリティマシンに基づいている。
ニューラルネットワークを使って、ネットワークエンティティ間のセキュアな鍵交換を行う。
本稿では2つのツリーパリティマシンの同期改善を提案する。
この改善は、バイナリよりも幅広い値を持つ入力ベクトルを用いた人工ニューラルネットワークの学習に基づいている。
これにより、同期処理の期間が短縮される。
そのため、必要なビット交換の削減により、ツリーパリティマシンはより短時間で共通重量を達成する。
このアプローチは神経暗号のセキュリティを改善する
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Training Multi-layer Neural Networks on Ising Machine [41.95720316032297]
本稿では,量子化ニューラルネットワーク(QNN)を学習するためのIsing学習アルゴリズムを提案する。
私たちが知る限りでは、Isingマシン上で多層フィードフォワードネットワークをトレーニングする最初のアルゴリズムである。
論文 参考訳(メタデータ) (2023-11-06T04:09:15Z) - Taming Binarized Neural Networks and Mixed-Integer Programs [2.7624021966289596]
バイナライズされたニューラルネットワークはテーム表現を許容することを示す。
これにより、Bolte et al. のフレームワークを暗黙の微分に使用できる。
このアプローチは、より広範な混合整数プログラムのクラスにも使用することができる。
論文 参考訳(メタデータ) (2023-10-05T21:04:16Z) - Compacting Binary Neural Networks by Sparse Kernel Selection [58.84313343190488]
本稿は,BNNにおけるバイナリカーネルの分散化がほぼ不可能であることを示すものである。
我々は、選択過程をエンドツーエンドに最適化するだけでなく、選択したコードワードの非反復的占有を維持できる置換ストレートスルー推定器(PSTE)を開発した。
実験により,提案手法はモデルサイズとビット幅の計算コストの両方を削減し,同等の予算下での最先端のBNNと比較して精度の向上を実現する。
論文 参考訳(メタデータ) (2023-03-25T13:53:02Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - HyBNN and FedHyBNN: (Federated) Hybrid Binary Neural Networks [0.0]
新しいハイブリッドニューラルネットワークアーキテクチャHybrid Binary Neural Network (Hybrid Binary Neural Network, HyBNN)を導入する。
HyBNNは、タスク非依存、一般、完全精度の変動型オートエンコーダと、タスク固有のバイナリニューラルネットワークで構成されている。
提案システムは,入力バイナライゼーションにより,バニラバイナリニューラルネットワークを著しく上回る性能を有することを示す。
論文 参考訳(メタデータ) (2022-05-19T20:27:01Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Artificial Neural Networks generated by Low Discrepancy Sequences [59.51653996175648]
我々は、高密度ネットワークグラフ上のランダムウォーキングとして、人工ニューラルネットワークを生成する。
このようなネットワークはスクラッチからスパースを訓練することができ、高密度ネットワークをトレーニングし、その後圧縮する高価な手順を避けることができる。
我々は,低差分シーケンスで生成された人工ニューラルネットワークが,より低い計算複雑性で,密度の高いニューラルネットワークの到達範囲内で精度を達成できることを実証した。
論文 参考訳(メタデータ) (2021-03-05T08:45:43Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Quantum computing model of an artificial neuron with continuously valued
input data [0.0]
人工ニューロン(英: Artificial Neuron)は、入力ベクトルの形で一連のデータに対して単純な数学的操作を行う計算ユニットである。
従来導入されていた量子人工ニューロンの実装は、離散値の入力ベクトルではなく、連続的に受け入れるように一般化できることを示す。
論文 参考訳(メタデータ) (2020-07-28T14:56:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。