論文の概要: Network Inversion of Convolutional Neural Nets
- arxiv url: http://arxiv.org/abs/2407.18002v1
- Date: Thu, 25 Jul 2024 12:53:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 14:08:56.332124
- Title: Network Inversion of Convolutional Neural Nets
- Title(参考訳): 畳み込みニューラルネットのネットワークインバージョン
- Authors: Pirzada Suhail, Amit Sethi,
- Abstract要約: ニューラルネットワークは、さまざまなアプリケーションにまたがる強力なツールとして登場したが、意思決定プロセスはしばしば不透明であり、「ブラックボックス」と認識される。
ネットワークの反転技術は、これらのブラックボックスの中を覗き見し、ネットワークが意思決定プロセスの背後で学んだ特徴とパターンを明らかにすることで、ソリューションを提供します。
本稿では、トレーニングされたニューラルネットワークの入力空間におけるデータ分布を学習する厳密な条件付きジェネレータを用いて、ネットワークインバージョンに対する単純かつ効果的なアプローチを提案する。
- 参考スコア(独自算出の注目度): 3.004632712148892
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks have emerged as powerful tools across various applications, yet their decision-making process often remains opaque, leading to them being perceived as "black boxes." This opacity raises concerns about their interpretability and reliability, especially in safety-critical scenarios. Network inversion techniques offer a solution by allowing us to peek inside these black boxes, revealing the features and patterns learned by the networks behind their decision-making processes and thereby provide valuable insights into how neural networks arrive at their conclusions, making them more interpretable and trustworthy. This paper presents a simple yet effective approach to network inversion using a carefully conditioned generator that learns the data distribution in the input space of the trained neural network, enabling the reconstruction of inputs that would most likely lead to the desired outputs. To capture the diversity in the input space for a given output, instead of simply revealing the conditioning labels to the generator, we hideously encode the conditioning label information into vectors, further exemplified by heavy dropout in the generation process and minimisation of cosine similarity between the features corresponding to the generated images. The paper concludes with immediate applications of Network Inversion including in interpretability, explainability and generation of adversarial samples.
- Abstract(参考訳): ニューラルネットワークは様々なアプリケーションにまたがる強力なツールとして登場したが、意思決定プロセスはしばしば不透明であり、「ブラックボックス」と認識される。
この不透明さは、特に安全クリティカルなシナリオにおいて、その解釈可能性と信頼性に関する懸念を提起する。
ネットワークの反転技術は、これらのブラックボックスの中を覗き見し、意思決定プロセスの背後にあるネットワークによって得られた特徴とパターンを明らかにし、ニューラルネットワークが結論に達する方法に関する貴重な洞察を提供することで、より解釈可能で信頼性の高いものになります。
本稿では、トレーニングされたニューラルネットワークの入力空間におけるデータ分布を学習し、所望の出力につながる可能性のある入力の再構成を可能にする、注意深く条件付けされたジェネレータを用いて、ネットワークインバージョンに対する単純かつ効果的なアプローチを提案する。
与えられた出力に対する入力空間の多様性を、単に条件ラベルを生成元に公開する代わりに、条件ラベル情報をベクトルに隠れてエンコードし、生成過程における重降下と、生成された画像に対応する特徴間のコサイン類似性の最小化によりさらに実証する。
本稿では,解釈可能性,説明可能性,対向サンプルの生成など,ネットワーク変換の即時適用について述べる。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Network Inversion of Binarised Neural Nets [3.5571131514746837]
ニューラルネットワークの出力マッピングに対する入力のブラックボックスの性質を解明する上で、ネットワークの反転は重要な役割を担っている。
本稿では,ネットワークの構造をキャプチャするCNF式に符号化することで,訓練されたBNNを逆転させる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T09:39:54Z) - Certified Invertibility in Neural Networks via Mixed-Integer Programming [16.64960701212292]
ニューラルネットワークは敵の攻撃に弱いことが知られている。
ネットワークの決定に影響を与えない大きな、意味のある摂動が存在するかもしれない。
ニューラルネットワーク間の変換における可逆性検証に,我々の知見がどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2023-01-27T15:40:38Z) - Effective and Interpretable Information Aggregation with Capacity
Networks [3.4012007729454807]
キャパシティネットワークは、意味論的意味のある空間に集約できる複数の解釈可能な中間結果を生成する。
この単純な帰納バイアスを実装することで、異なるエンコーダ・デコーダアーキテクチャの改善がもたらされることを示す。
論文 参考訳(メタデータ) (2022-07-25T09:45:16Z) - A Lightweight, Efficient and Explainable-by-Design Convolutional Neural
Network for Internet Traffic Classification [9.365794791156972]
本稿では、インターネットトラフィック分類のための新しい軽量・効率的・eXplainable-by-design畳み込みニューラルネットワーク(LEXNet)を提案する。
LEXNetは(軽量で効率の良い目的のために)新しい残留ブロックと(説明可能性のために)プロトタイプ層に依存している。
商用グレードのデータセットに基づいて、LEXNetは最先端のニューラルネットワークと同じ精度を維持することに成功した。
論文 参考訳(メタデータ) (2022-02-11T10:21:34Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z) - Resolution Adaptive Networks for Efficient Inference [53.04907454606711]
本稿では,低分解能表現が「容易」な入力を分類するのに十分である,という直感に触発された新しいレゾリューション適応ネットワーク(RANet)を提案する。
RANetでは、入力画像はまず、低解像度表現を効率的に抽出する軽量サブネットワークにルーティングされる。
ネットワーク内の高解像度パスは、"ハード"サンプルを認識する能力を維持している。
論文 参考訳(メタデータ) (2020-03-16T16:54:36Z) - Forgetting Outside the Box: Scrubbing Deep Networks of Information
Accessible from Input-Output Observations [143.3053365553897]
本稿では、訓練された深層ネットワークからトレーニングデータのコホートへの依存を取り除く手順について述べる。
忘れられたコホートについて,クエリ毎にどれだけの情報を取り出すことができるか,という新たな境界を導入する。
我々は,ニューラルタンジェントカーネルにインスパイアされたDNNのアクティベーションとウェイトダイナミクスの接続を利用して,アクティベーションの情報を計算する。
論文 参考訳(メタデータ) (2020-03-05T23:17:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。