論文の概要: Finding Input Characterizations for Output Properties in ReLU Neural
Networks
- arxiv url: http://arxiv.org/abs/2003.04273v1
- Date: Mon, 9 Mar 2020 17:29:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 07:41:00.725243
- Title: Finding Input Characterizations for Output Properties in ReLU Neural
Networks
- Title(参考訳): ReLUニューラルネットワークにおける出力特性の入力特性の探索
- Authors: Saket Dingliwal, Divyansh Pareek, Jatin Arora
- Abstract要約: ディープニューラルネットワーク(DNN)は強力なメカニズムとして登場し、現実世界の安全クリティカルなドメインにますますデプロイされている。
広く成功したにもかかわらず、その複雑なアーキテクチャは、それらに関する正式な保証を証明するのを困難にしている。
提示されたアイデアを拡張し、アーキテクチャと高レベルの仕様のギャップを埋める方法を紹介します。
- 参考スコア(独自算出の注目度): 0.9614694312155797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) have emerged as a powerful mechanism and are
being increasingly deployed in real-world safety-critical domains. Despite the
widespread success, their complex architecture makes proving any formal
guarantees about them difficult. Identifying how logical notions of high-level
correctness relate to the complex low-level network architecture is a
significant challenge. In this project, we extend the ideas presented in and
introduce a way to bridge the gap between the architecture and the high-level
specifications. Our key insight is that instead of directly proving the safety
properties that are required, we first prove properties that relate closely to
the structure of the neural net and use them to reason about the safety
properties. We build theoretical foundations for our approach, and empirically
evaluate the performance through various experiments, achieving promising
results than the existing approach by identifying a larger region of input
space that guarantees a certain property on the output.
- Abstract(参考訳): Deep Neural Networks(DNN)は強力なメカニズムとして登場し、現実世界の安全クリティカルなドメインにますますデプロイされている。
広く成功したにもかかわらず、その複雑なアーキテクチャは、それらに関する正式な保証を証明するのを困難にしている。
複雑な低レベルネットワークアーキテクチャとハイレベルな正しさの論理的概念がどのように関連しているかを特定することは、重要な課題である。
このプロジェクトでは、提案するアイデアを拡張し、アーキテクチャとハイレベルな仕様の間のギャップを埋める方法を紹介します。
我々の重要な洞察は、必要な安全特性を直接証明する代わりに、まずニューラルネットワークの構造に密接に関係する性質を証明し、安全特性を推論するためにそれらを使用することである。
我々は,提案手法の理論的基礎を構築し,様々な実験を通して性能を実証的に評価し,出力の特定の特性を保証する入力空間の広い領域を特定することにより,既存の手法よりも有望な結果を得る。
関連論文リスト
- StructRAG: Boosting Knowledge Intensive Reasoning of LLMs via Inference-time Hybrid Information Structurization [94.31508613367296]
Retrieval-augmented Generation(RAG)は、大規模言語モデル(LLM)を効果的に強化する鍵となる手段である。
本稿では,手前のタスクに対して最適な構造型を識別し,元の文書をこの構造化形式に再構成し,その結果に基づいて回答を推測するStructRAGを提案する。
実験の結果、StructRAGは最先端のパフォーマンスを実現し、特に挑戦的なシナリオに優れていた。
論文 参考訳(メタデータ) (2024-10-11T13:52:44Z) - Robust NAS under adversarial training: benchmark, theory, and beyond [55.51199265630444]
我々は、多数の敵に訓練されたネットワークに対して、クリーンな精度とロバストな精度の両方を含む包括的データセットをリリースする。
また,多目的対人訓練において,クリーンな精度とロバストな精度で探索アーキテクチャを一般化する理論を確立した。
論文 参考訳(メタデータ) (2024-03-19T20:10:23Z) - Towards Improving Robustness Against Common Corruptions using Mixture of
Class Specific Experts [10.27974860479791]
本稿では,クラス特化エキスパートアーキテクチャの混合として知られる新しいパラダイムを紹介する。
提案したアーキテクチャは、一般的なニューラルネットワーク構造に関連する脆弱性を軽減することを目的としている。
論文 参考訳(メタデータ) (2023-11-16T20:09:47Z) - Enumerating Safe Regions in Deep Neural Networks with Provable
Probabilistic Guarantees [86.1362094580439]
安全プロパティとDNNが与えられた場合、安全であるプロパティ入力領域のすべての領域の集合を列挙する。
この問題の #P-hardness のため,epsilon-ProVe と呼ばれる効率的な近似法を提案する。
提案手法は, 許容限界の統計的予測により得られた出力可到達集合の制御可能な過小評価を利用する。
論文 参考訳(メタデータ) (2023-08-18T22:30:35Z) - Neural Architecture Design and Robustness: A Dataset [11.83842808044211]
ニューラルアーキテクチャ設計とロバストネス評価に関するデータベースを導入する。
我々は、これらのネットワークを、様々な共通の敵攻撃や汚職タイプで評価する。
ネットワークのトポロジを慎重に構築することは、その堅牢性に大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2023-06-11T16:02:14Z) - Understanding Robust Learning through the Lens of Representation
Similarities [37.66877172364004]
ディープニューラルネットワーク(DNN)の望ましい性質として、敵の例に対するロバストさが出現した
本稿では,頑健な学習によって学習される表現の性質が,標準的非破壊的学習から得られた表現とどのように異なるかを理解することを目的とする。
論文 参考訳(メタデータ) (2022-06-20T16:06:20Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - Deep Feature Space: A Geometrical Perspective [2.763016063783766]
本稿では,NNの出力層の前にベクトル空間を可視化し,理解する新しい方法を提案する。
特徴空間における過度な適合の性質と、さらなる搾取に対する悪影響に注意が払われる。
論文 参考訳(メタデータ) (2020-06-30T18:51:02Z) - Understanding Deep Architectures with Reasoning Layer [60.90906477693774]
本研究では,アルゴリズムの収束,安定性,感度といった特性が,エンドツーエンドモデルの近似と一般化能力と密接に関連していることを示す。
私たちの理論は、深いアーキテクチャを推論層で設計するための有用なガイドラインを提供することができます。
論文 参考訳(メタデータ) (2020-06-24T00:26:35Z) - Global Robustness Verification Networks [33.52550848953545]
3つのコンポーネントからなるグローバルロバストネス検証フレームワークを開発した。
実現可能なルールベースのバックプロパゲーションを可能にする新しいネットワークアーキテクチャ Sliding Door Network (SDN)
合成データと実データの両方にアプローチの有効性を示す。
論文 参考訳(メタデータ) (2020-06-08T08:09:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。