論文の概要: Network Inversion of Binarised Neural Nets
- arxiv url: http://arxiv.org/abs/2402.11995v1
- Date: Mon, 19 Feb 2024 09:39:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 17:16:27.970303
- Title: Network Inversion of Binarised Neural Nets
- Title(参考訳): 二元化ニューラルネットのネットワークインバージョン
- Authors: Pirzada Suhail, Supratik Chakraborty, Amit Sethi
- Abstract要約: ニューラルネットワークの出力マッピングに対する入力のブラックボックスの性質を解明する上で、ネットワークの反転は重要な役割を担っている。
本稿では,ネットワークの構造をキャプチャするCNF式に符号化することで,訓練されたBNNを逆転させる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 3.5571131514746837
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While the deployment of neural networks, yielding impressive results, becomes
more prevalent in various applications, their interpretability and
understanding remain a critical challenge. Network inversion, a technique that
aims to reconstruct the input space from the model's learned internal
representations, plays a pivotal role in unraveling the black-box nature of
input to output mappings in neural networks. In safety-critical scenarios,
where model outputs may influence pivotal decisions, the integrity of the
corresponding input space is paramount, necessitating the elimination of any
extraneous "garbage" to ensure the trustworthiness of the network. Binarised
Neural Networks (BNNs), characterized by binary weights and activations, offer
computational efficiency and reduced memory requirements, making them suitable
for resource-constrained environments. This paper introduces a novel approach
to invert a trained BNN by encoding it into a CNF formula that captures the
network's structure, allowing for both inference and inversion.
- Abstract(参考訳): ニューラルネットワークの展開は、印象的な結果をもたらし、様々なアプリケーションでより普及する一方で、その解釈性と理解は依然として重要な課題である。
モデルの学習した内部表現から入力空間を再構築する技術であるネットワークインバージョンは、ニューラルネットワークにおける出力マッピングへの入力のブラックボックスの性質を解き放つ上で重要な役割を果たす。
モデルアウトプットが重要な決定に影響を及ぼす可能性のある安全クリティカルなシナリオでは、対応する入力空間の完全性が最重要であり、ネットワークの信頼性を確保するために不要な"ガーベージ"の排除が必要である。
バイナリ重みとアクティベーションを特徴とするbinarized neural networks(bnns)は、計算効率とメモリ要件の削減を提供し、リソース制約のある環境に適している。
本稿では,学習したBNNをCNF式に符号化し,ネットワークの構造を捉え,推論と逆変換を両立させる手法を提案する。
関連論文リスト
- Network Inversion of Convolutional Neural Nets [3.004632712148892]
ニューラルネットワークは、さまざまなアプリケーションにまたがる強力なツールとして登場したが、意思決定プロセスはしばしば不透明である。
ネットワークの反転技術は、これらのブラックボックスの中を覗くことができるソリューションを提供します。
本稿では,厳密な条件付きジェネレータを用いたネットワークインバージョンに対する簡易かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-07-25T12:53:21Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Certified Invertibility in Neural Networks via Mixed-Integer Programming [16.64960701212292]
ニューラルネットワークは敵の攻撃に弱いことが知られている。
ネットワークの決定に影響を与えない大きな、意味のある摂動が存在するかもしれない。
ニューラルネットワーク間の変換における可逆性検証に,我々の知見がどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2023-01-27T15:40:38Z) - Vanilla Feedforward Neural Networks as a Discretization of Dynamical Systems [9.382423715831687]
本稿では,従来のネットワーク構造に戻り,バニラフィードフォワードネットワークが動的システムの数値的な離散化であることを示す。
我々の結果は、フィードフォワードニューラルネットワークの近似特性を理解するための新しい視点を提供することができる。
論文 参考訳(メタデータ) (2022-09-22T10:32:08Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - A Dimensionality Reduction Approach for Convolutional Neural Networks [0.0]
本稿では,上記の次元削減手法と入出力マッピングを組み合わせることで,事前学習ネットワークの層数を削減できる汎用手法を提案する。
本実験により, 従来の畳み込みニューラルネットワークと同様の精度を達成でき, メモリ割り当てを抑えることができることがわかった。
論文 参考訳(メタデータ) (2021-10-18T10:31:12Z) - Deep Neural Networks and PIDE discretizations [2.4063592468412276]
畳み込みニューラルネットワーク(CNN)の安定性と視野問題に対処するニューラルネットワークを提案する。
本稿では,大域重み付きラプラス作用素,分数ラプラス作用素,分数逆ラプラス作用素に関連する積分型空間非局所作用素を提案する。
自律運転における画像分類データセットとセマンティックセグメンテーションタスクのベンチマーク上で,提案したニューラルネットワークの有効性を検証した。
論文 参考訳(メタデータ) (2021-08-05T08:03:01Z) - Learning Autonomy in Management of Wireless Random Networks [102.02142856863563]
本稿では,任意の数のランダム接続ノードを持つ無線ネットワークにおいて,分散最適化タスクに取り組む機械学習戦略を提案する。
我々は,ネットワークトポロジとは無関係に,前方および後方に計算を行う分散メッセージパスニューラルネットワーク(DMPNN)と呼ばれる,柔軟な深層ニューラルネットワーク形式を開発した。
論文 参考訳(メタデータ) (2021-06-15T09:03:28Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Forgetting Outside the Box: Scrubbing Deep Networks of Information
Accessible from Input-Output Observations [143.3053365553897]
本稿では、訓練された深層ネットワークからトレーニングデータのコホートへの依存を取り除く手順について述べる。
忘れられたコホートについて,クエリ毎にどれだけの情報を取り出すことができるか,という新たな境界を導入する。
我々は,ニューラルタンジェントカーネルにインスパイアされたDNNのアクティベーションとウェイトダイナミクスの接続を利用して,アクティベーションの情報を計算する。
論文 参考訳(メタデータ) (2020-03-05T23:17:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。