論文の概要: Neural Networks, Inside Out: Solving for Inputs Given Parameters (A
Preliminary Investigation)
- arxiv url: http://arxiv.org/abs/2110.03649v1
- Date: Thu, 7 Oct 2021 17:40:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 17:47:37.930848
- Title: Neural Networks, Inside Out: Solving for Inputs Given Parameters (A
Preliminary Investigation)
- Title(参考訳): ニューラルネットワーク,inside out:与えられたパラメータによる入力の解法(予備調査)
- Authors: Mohammad Sadeq Dousti
- Abstract要約: 我々は、観測者がANNパラメータが多くの反復でどのように進化するかを観察できる問題について検討するが、データセットは彼にとって難解である。
例えば、これはANNパラメータ(中間パラメータがリークされた場所)の複数パーティの計算における逆の盗聴である可能性がある。
彼は方程式のシステムを作り、それを解いてデータセットを復元できるだろうか?
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Artificial neural network (ANN) is a supervised learning algorithm, where
parameters are learned by several back-and-forth iterations of passing the
inputs through the network, comparing the output with the expected labels, and
correcting the parameters. Inspired by a recent work of Derian and Kramer
(2020), we investigate a different problem: Suppose an observer can view how
the ANN parameters evolve over many iterations, but the dataset is oblivious to
him. For instance, this can be an adversary eavesdropping on a multi-party
computation of an ANN parameters (where intermediate parameters are leaked).
Can he form a system of equations, and solve it to recover the dataset?
- Abstract(参考訳): 人工知能ニューラルネットワーク(ANN)は教師付き学習アルゴリズムで、入力をネットワークに渡し、出力と期待されるラベルを比較し、パラメータを補正する、前後の繰り返しによってパラメータが学習される。
derian と kramer (2020) の最近の研究に触発されて、観察者は ann パラメータが多くのイテレーションでどのように進化するかを見ることができるが、データセットは彼には必然的であると仮定する。
例えば、これはANNパラメータ(中間パラメータがリークされた場所)の複数パーティの計算に対する逆のeavesdroppingである。
彼は方程式系を作り、それを解いてデータセットを復元できますか?
関連論文リスト
- Using Degeneracy in the Loss Landscape for Mechanistic Interpretability [0.0]
機械的解釈可能性(Mechanistic Interpretability)は、ニューラルネットワークによって実装されたアルゴリズムを、その重みとアクティベーションを研究することによってリバースエンジニアリングすることを目的としている。
逆エンジニアリングニューラルネットワークの障害は、ネットワーク内の多くのパラメータが、ネットワークによって実装されている計算に関与していないことである。
論文 参考訳(メタデータ) (2024-05-17T17:26:33Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Is Stochastic Gradient Descent Near Optimal? [0.0]
本研究では,多数のサンプルとクエリの総数を用いて,勾配勾配勾配の誤差が小さいことを示す。
このことは、SGDがJoen & Van Roy (arXiv:2203.00246) の情報理論的なサンプル複雑性境界を計算的に効率よく達成していることを示唆している。
論文 参考訳(メタデータ) (2022-09-18T18:26:43Z) - Generalizing Neural Networks by Reflecting Deviating Data in Production [15.498447555957773]
本稿では,DNNに対する予期せぬ実行時入力によるDNNの誤予測を緩和する実行時アプローチを提案する。
我々は,シームズネットワークが学習した距離測定値に基づく分布解析器を用いて,意味的に保存されていない入力を識別する。
我々のアプローチは、これらの予期せぬ入力を、類似のセマンティクスを持つと認識されるトレーニングセットから入力に変換する。
論文 参考訳(メタデータ) (2021-10-06T13:05:45Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - Deep Parametric Continuous Convolutional Neural Networks [92.87547731907176]
Parametric Continuous Convolutionは、非グリッド構造化データ上で動作する、新たな学習可能な演算子である。
室内および屋外シーンの点雲セグメンテーションにおける最先端技術よりも顕著な改善が見られた。
論文 参考訳(メタデータ) (2021-01-17T18:28:23Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - Bayesian neural networks and dimensionality reduction [4.039245878626346]
そのような問題に対するモデルに基づくアプローチのクラスは、未知の非線形回帰関数における潜在変数を含む。
VAEは、近似を用いて計算をトラクタブルにする人工知能ニューラルネットワーク(ANN)である。
潜在変数を持つANNモデルにおいて,マルコフ連鎖モンテカルロサンプリングアルゴリズムをベイズ推定のために展開する。
論文 参考訳(メタデータ) (2020-08-18T17:11:07Z) - Cryptanalytic Extraction of Neural Network Models [56.738871473622865]
遠隔モデルのパラメータを浮動小数点精度まで効率的に盗むことができる差動攻撃を導入する。
我々の攻撃は、ReLUニューラルネットワークが一括線形関数であるという事実に依存している。
220倍の正確さと100倍のクエリを必要とするモデルを抽出する。
論文 参考訳(メタデータ) (2020-03-10T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。