論文の概要: Are Deep Neural Architectures Losing Information? Invertibility Is
Indispensable
- arxiv url: http://arxiv.org/abs/2009.03173v2
- Date: Tue, 29 Sep 2020 00:15:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 02:47:15.497734
- Title: Are Deep Neural Architectures Losing Information? Invertibility Is
Indispensable
- Title(参考訳): ディープラーニングアーキテクチャは情報を失うか?
可逆性は不可欠である
- Authors: Yang Liu and Zhenyue Qin and Saeed Anwar and Sabrina Caldwell and Tom
Gedeon
- Abstract要約: より深いニューラルネットワークアーキテクチャは、アーキテクチャが可逆である場合に限り、与えられたデータに関する最大詳細を保存可能であることを示す。
Invertible Restoring Autoencoder (IRAE) ネットワークの利点を、3つの摂動画像復元タスクの競合モデルと比較することにより検証する。
- 参考スコア(独自算出の注目度): 21.743445133008848
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ever since the advent of AlexNet, designing novel deep neural architectures
for different tasks has consistently been a productive research direction.
Despite the exceptional performance of various architectures in practice, we
study a theoretical question: what is the condition for deep neural
architectures to preserve all the information of the input data? Identifying
the information lossless condition for deep neural architectures is important,
because tasks such as image restoration require keep the detailed information
of the input data as much as possible. Using the definition of mutual
information, we show that: a deep neural architecture can preserve maximum
details about the given data if and only if the architecture is invertible. We
verify the advantages of our Invertible Restoring Autoencoder (IRAE) network by
comparing it with competitive models on three perturbed image restoration
tasks: image denoising, jpeg image decompression and image inpainting.
Experimental results show that IRAE consistently outperforms non-invertible
ones. Our model even contains far fewer parameters. Thus, it may be worthwhile
to try replacing standard components of deep neural architectures, such as
residual blocks and ReLU, with their invertible counterparts. We believe our
work provides a unique perspective and direction for future deep learning
research.
- Abstract(参考訳): AlexNetの登場以来、さまざまなタスクのための新しいディープニューラルネットワークの設計は、一貫して生産的な研究の方向性だった。
実際に様々なアーキテクチャの例外的な性能にもかかわらず、我々は理論的問題:入力データの全ての情報を保存するためのディープニューラルネットワークアーキテクチャの条件は何か?
画像復元などのタスクは入力データの詳細な情報を可能な限り保持する必要があるため、ディープニューラルアーキテクチャにおける情報ロスレス状態を特定することは重要である。
深いニューラルアーキテクチャは、アーキテクチャが可逆である場合に限り、与えられたデータに関する最大詳細を保存できる。
Invertible Restoring Autoencoder (IRAE) ネットワークの利点は,画像デノイング,jpeg画像デプレッション,画像インパインティングの3つの摂動画像復元タスクにおける競合モデルと比較することで検証できる。
実験の結果、IRAEは非可逆性よりも一貫して優れていた。
私たちのモデルはパラメータもはるかに少ない。
したがって、残差ブロックやreluのようなディープニューラルネットワークの標準コンポーネントを、可逆的なコンポーネントに置き換える価値はあるかもしれない。
私たちの研究は、将来のディープラーニング研究に独自の視点と方向性をもたらすと信じています。
関連論文リスト
- Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - Neural Architecture Retrieval [27.063268631346713]
我々は、クエリニューラルアーキテクチャに似た設計で既存のニューラルアーキテクチャの集合を検索するニューラルアーキテクチャ検索という新しい問題を定義する。
既存のグラフ事前学習戦略は、グラフのサイズとモチーフのため、ニューラルネットワークの計算グラフに対処できない。
正確なグラフ表現学習を実現するために,マルチレベルコントラスト学習を導入する。
論文 参考訳(メタデータ) (2023-07-16T01:56:41Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - End-to-End Neuro-Symbolic Architecture for Image-to-Image Reasoning
Tasks [15.649929244635269]
画像入力から画像出力への変換を必要とするタスクを推論するためのニューラル・シンボリック・ニューラルモデルについて検討する。
画像再構成損失と新たな出力エンコーダを組み合わせてスーパーバイザ信号を生成するアーキテクチャであるNSNnetを提案する。
論文 参考訳(メタデータ) (2021-06-06T13:27:33Z) - Understanding invariance via feedforward inversion of discriminatively
trained classifiers [30.23199531528357]
過去の研究では、出力ログに余計な視覚的詳細が残っていることが判明した。
極めて高い忠実度を再現するフィードフォワードインバージョンモデルを開発する。
私たちのアプローチはBigGANをベースにしており、1ホットクラスのラベルの代わりにロジットのコンディショニングを行います。
論文 参考訳(メタデータ) (2021-03-15T17:56:06Z) - Auto-tuning of Deep Neural Networks by Conflicting Layer Removal [0.0]
トレーニングモデルのテスト精度を低下させる層を識別する新しい手法を提案する。
矛盾する層は、トレーニングの開始時に早期に検出される。
訓練された残存ネットワークのレイヤの約60%が、アーキテクチャから完全に取り除かれることを示しています。
論文 参考訳(メタデータ) (2021-03-07T11:51:55Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - Neural Sparse Representation for Image Restoration [116.72107034624344]
スパース符号化に基づく画像復元モデルの堅牢性と効率に触発され,深部ネットワークにおけるニューロンの空間性について検討した。
本手法は,隠れたニューロンに対する空間的制約を構造的に強制する。
実験により、複数の画像復元タスクのためのディープニューラルネットワークではスパース表現が不可欠であることが示されている。
論文 参考訳(メタデータ) (2020-06-08T05:15:17Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - Pyramid Attention Networks for Image Restoration [124.34970277136061]
自己相似性(Self-similarity)とは、画像復元アルゴリズムで広く使われる画像を指す。
近年の深層畳み込みニューラルネットワークによる画像復元手法は, 自己相似性を十分に活用していない。
画像復元のための新しいピラミッドアテンションモジュールを提案し,マルチスケール特徴ピラミッドから長距離特徴対応をキャプチャする。
論文 参考訳(メタデータ) (2020-04-28T21:12:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。