論文の概要: Are Neural Networks Collision Resistant?
- arxiv url: http://arxiv.org/abs/2509.20262v1
- Date: Wed, 24 Sep 2025 15:50:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.888464
- Title: Are Neural Networks Collision Resistant?
- Title(参考訳): ニューラルネットワークは衝突耐性があるか?
- Authors: Marco Benedetti, Andrej Bogdanov, Enrico M. Malatesta, Marc Mézard, Gianmarco Perrupato, Alon Rosen, Nikolaj I. Schwartzbach, Riccardo Zecchina,
- Abstract要約: 単層ニューラルネットワークにおける衝突のアルゴリズム的複雑さについて検討する。
発振活性化関数を持つ二元パーセプトロンに対しては、重なり合うギャップ特性の出現を確立する。
- 参考スコア(独自算出の注目度): 3.2522957478427283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When neural networks are trained to classify a dataset, one finds a set of weights from which the network produces a label for each data point. We study the algorithmic complexity of finding a collision in a single-layer neural net, where a collision is defined as two distinct sets of weights that assign the same labels to all data. For binary perceptrons with oscillating activation functions, we establish the emergence of an overlap gap property in the space of collisions. This is a topological property believed to be a barrier to the performance of efficient algorithms. The hardness is supported by numerical experiments using approximate message passing algorithms, for which the algorithms stop working well below the value predicted by our analysis. Neural networks provide a new category of candidate collision resistant functions, which for some parameter setting depart from constructions based on lattices. Beyond relevance to cryptography, our work uncovers new forms of computational hardness emerging in large neural networks which may be of independent interest.
- Abstract(参考訳): ニューラルネットワークがデータセットを分類するように訓練されると、ネットワークが各データポイントのラベルを生成する重みのセットを見つける。
単一層ニューラルネットにおける衝突のアルゴリズム的複雑さについて検討し、衝突を同じラベルを全てのデータに割り当てる2つの異なる重み集合として定義する。
振動活性化関数を持つ二元パーセプトロンに対しては、衝突空間における重なり合いギャップ特性の出現を確立する。
これは効率的なアルゴリズムの性能の障壁であると考えられているトポロジカルな性質である。
この硬さは、近似的メッセージパッシングアルゴリズムを用いて数値実験によって支持され、このアルゴリズムは解析によって予測される値よりかなり低い値で機能しない。
ニューラルネットワークは、格子に基づく構造から外れたパラメータ設定のために、新しいカテゴリーの衝突耐性関数を提供する。
暗号の関連性以外にも、我々の研究は、独立した関心を持つかもしれない大規模ニューラルネットワークに出現する計算の難しさの新たな形態を明らかにする。
関連論文リスト
- Memorization With Neural Nets: Going Beyond the Worst Case [5.03863830033243]
実際には、ディープニューラルネットワークはトレーニングデータを簡単に補間できることが多い。
本稿では、3層ニューラルネットワークを時間内に補間する単純なランダム化アルゴリズムを提案する。
サンプル数に依存しない保証を得るため、最悪の記憶能力限界を超えて移動します。
論文 参考訳(メタデータ) (2023-09-30T10:06:05Z) - Multilayer Multiset Neuronal Networks -- MMNNs [55.2480439325792]
本研究は,2層以上の類似性ニューロンを組み込んだ多層神経回路網について述べる。
また,回避すべき画像領域に割り当てられる反プロトタイプ点の利用についても検討した。
論文 参考訳(メタデータ) (2023-08-28T12:55:13Z) - Provable Data Subset Selection For Efficient Neural Network Training [73.34254513162898]
本稿では,任意の放射基底関数ネットワーク上での入力データの損失を近似する,emphRBFNNのコアセットを構成するアルゴリズムについて紹介する。
次に、一般的なネットワークアーキテクチャやデータセット上で、関数近似とデータセットサブセットの選択に関する経験的評価を行う。
論文 参考訳(メタデータ) (2023-03-09T10:08:34Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Artificial Neural Networks generated by Low Discrepancy Sequences [59.51653996175648]
我々は、高密度ネットワークグラフ上のランダムウォーキングとして、人工ニューラルネットワークを生成する。
このようなネットワークはスクラッチからスパースを訓練することができ、高密度ネットワークをトレーニングし、その後圧縮する高価な手順を避けることができる。
我々は,低差分シーケンスで生成された人工ニューラルネットワークが,より低い計算複雑性で,密度の高いニューラルネットワークの到達範囲内で精度を達成できることを実証した。
論文 参考訳(メタデータ) (2021-03-05T08:45:43Z) - Finding hidden-feature depending laws inside a data set and classifying
it using Neural Network [0.0]
ニューラルネットワークのlogcosh損失関数は、異常値の重み付けを行わない絶対誤差損失関数の利点と、平均付近における連続微分の平均二乗誤差の利点を組み合わせるために開発された。
本研究は,logcosh損失を持つ人工ニューラルネットワークを用いてパラメータ-アウトカムサンプルセットのセット値マッピングの分岐を探索し,それらの分岐に従ってサンプルを分類する手法を提案する。
論文 参考訳(メタデータ) (2021-01-25T21:37:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。