論文の概要: Keyed Chaotic Tensor Transformations for Secure And Attributable Neural Inference
- arxiv url: http://arxiv.org/abs/2505.23655v1
- Date: Thu, 29 May 2025 17:05:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:08.015764
- Title: Keyed Chaotic Tensor Transformations for Secure And Attributable Neural Inference
- Title(参考訳): 安全に帰属可能なニューラル推論のためのキー付きカオステンソル変換
- Authors: Peter David Fagan,
- Abstract要約: この研究は、キー付きカオス動的変換に基づくセキュアでプライバシ保護のニューラルネットワーク推論のための新しいフレームワークを導入している。
提案手法はテンソルに決定論的で暗号的にシードされたカオスシステムを適用し,非可逆なユーザ固有の変換を生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces a novel framework for secure and privacy-preserving neural network inference based on keyed chaotic dynamical transformations. The proposed method applies a deterministic, cryptographically seeded chaotic system to tensors, producing non-invertible, user-specific transformations that enable authenticated inference, tensor-level watermarking, and data attribution. This framework offers a scalable and lightweight alternative to conventional cryptographic techniques, and establishes a new direction for tensor-level security in AI systems.
- Abstract(参考訳): この研究は、キー付きカオス動的変換に基づくセキュアでプライバシ保護のニューラルネットワーク推論のための新しいフレームワークを導入している。
提案手法はテンソルに対して決定論的で暗号的にシードされたカオスシステムを適用し、認証された推論、テンソルレベルの透かし、データ属性を可能にする非可逆なユーザ固有の変換を生成する。
このフレームワークは、従来の暗号技術に代わるスケーラブルで軽量な代替手段を提供し、AIシステムにおけるテンソルレベルのセキュリティのための新たな方向性を確立する。
関連論文リスト
- A Novel Post-Quantum Secure Digital Signature Scheme Based on Neural Network [1.7495213911983414]
二重のニューラルネットワークを用いてシグネチャスキームの中心構造を定義する。
提案したシグネチャスキームは,適応的なChosen実存不確実性攻撃に対するセキュリティを提供する。
その結果、量子後暗号アプリケーションにおける顕著な効率性と実用性を示した。
論文 参考訳(メタデータ) (2025-07-28T09:56:09Z) - Certified Neural Approximations of Nonlinear Dynamics [52.79163248326912]
安全クリティカルな文脈では、神経近似の使用は、基礎となるシステムとの密接性に公式な境界を必要とする。
本稿では,認証された一階述語モデルに基づく新しい,適応的で並列化可能な検証手法を提案する。
論文 参考訳(メタデータ) (2025-05-21T13:22:20Z) - Towards Quantum Resilience: Data-Driven Migration Strategy Design [0.0]
本稿では,量子攻撃に対する従来の暗号手法の脆弱性について,徹底的に検討する。
組織が緩和計画を推奨し、量子後暗号への適切な移行戦略を決定するのを支援するための意思決定支援フレームワークを提供する。
論文 参考訳(メタデータ) (2025-05-09T11:12:09Z) - Dreaming Learning [41.94295877935867]
機械学習システムに新しい情報を導入することは、以前に格納されたデータに干渉する可能性がある。
スチュアート・カウフマンの随伴可能性の概念に着想を得た学習アルゴリズムを提案する。
ニューラルネットワークは、予想と異なる統計特性を持つデータシーケンスを円滑に受け入れ、統合することを前提としている。
論文 参考訳(メタデータ) (2024-10-23T09:17:31Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - The Predictive Forward-Forward Algorithm [79.07468367923619]
本稿では,ニューラルネットワークにおける信頼割当を行うための予測フォワード(PFF)アルゴリズムを提案する。
我々は,有向生成回路と表現回路を同時に同時に学習する,新しい動的リカレントニューラルネットワークを設計する。
PFFは効率よく学習し、学習信号を伝達し、フォワードパスのみでシナプスを更新する。
論文 参考訳(メタデータ) (2023-01-04T05:34:48Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - GSmooth: Certified Robustness against Semantic Transformations via
Generalized Randomized Smoothing [40.38555458216436]
一般的な意味変換に対する堅牢性を証明するための統一的な理論的枠組みを提案する。
GSmoothフレームワークでは,画像と画像の代理ネットワークを用いて複雑な変換を近似するスケーラブルなアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-09T07:12:17Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Defensive Tensorization [113.96183766922393]
本稿では,ネットワークの遅延高次分解を利用した対角防御手法であるテンソル防御手法を提案する。
我々は,標準画像分類ベンチマークにおけるアプローチの有効性を実証的に実証した。
我々は,音声タスクとバイナリネットワークを考慮し,ドメイン間のアプローチと低精度アーキテクチャの汎用性を検証した。
論文 参考訳(メタデータ) (2021-10-26T17:00:16Z) - Physical Constraint Embedded Neural Networks for inference and noise
regulation [0.0]
ニューラルネットワークに偶数ノード対称性と保存則を埋め込む方法を提案する。
先行知識を使わずに正確に対称性を推測できることを実証する。
物理拘束型組込みニューラルネットワークの雑音耐性特性を強調した。
論文 参考訳(メタデータ) (2021-05-19T14:07:20Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Supervised Learning with First-to-Spike Decoding in Multilayer Spiking
Neural Networks [0.0]
本稿では,多層スパイキングニューラルネットワークを学習して分類問題を解くための教師あり学習手法を提案する。
提案した学習規則は、隠れニューロンが発する複数のスパイクをサポートし、決定論的出力層によって生成された最初のスパイク応答に依存することにより安定である。
また、入力データのコンパクト表現を形成するために、いくつかの異なるスパイクベースの符号化戦略についても検討する。
論文 参考訳(メタデータ) (2020-08-16T15:34:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。