論文の概要: Where We Have Arrived in Proving the Emergence of Sparse Symbolic Concepts in AI Models
- arxiv url: http://arxiv.org/abs/2305.01939v2
- Date: Fri, 13 Sep 2024 09:22:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 23:56:50.608285
- Title: Where We Have Arrived in Proving the Emergence of Sparse Symbolic Concepts in AI Models
- Title(参考訳): AIモデルにおけるスパースシンボリック概念の創発を証明するために、私たちは何をしてきたのか
- Authors: Qihan Ren, Jiayang Gao, Wen Shen, Quanshi Zhang,
- Abstract要約: 本研究の目的は、よく訓練されたディープニューラルネットワーク(DNN)における記号的概念(あるいはより正確にはスパースプリミティブ推論パターン)の出現を証明することである。
指数関数的に多数のランダムマスクされたサンプルに対するDNNの推測スコアは、ほんの数個の相互作用の数値効果によって常にうまく模倣できることを示す。
- 参考スコア(独自算出の注目度): 21.02716340199201
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study aims to prove the emergence of symbolic concepts (or more precisely, sparse primitive inference patterns) in well-trained deep neural networks (DNNs). Specifically, we prove the following three conditions for the emergence. (i) The high-order derivatives of the network output with respect to the input variables are all zero. (ii) The DNN can be used on occluded samples and when the input sample is less occluded, the DNN will yield higher confidence. (iii) The confidence of the DNN does not significantly degrade on occluded samples. These conditions are quite common, and we prove that under these conditions, the DNN will only encode a relatively small number of sparse interactions between input variables. Moreover, we can consider such interactions as symbolic primitive inference patterns encoded by a DNN, because we show that inference scores of the DNN on an exponentially large number of randomly masked samples can always be well mimicked by numerical effects of just a few interactions.
- Abstract(参考訳): 本研究の目的は、よく訓練されたディープニューラルネットワーク(DNN)における記号的概念(あるいはより正確にはスパースプリミティブ推論パターン)の出現を証明することである。
具体的には,次の3つの条件を立証する。
(i)入力変数に対するネットワーク出力の高次微分は、すべてゼロである。
(II) DNNは隠蔽サンプルに使用することができ、入力サンプルが隠蔽されていない場合、DNNは高い信頼を得る。
3) DNNの信頼性は, 隠蔽試料では著しく低下しない。
これらの条件は非常に一般的であり、これらの条件下では、DNNは入力変数間のスパース相互作用を比較的少ない数でエンコードするのみであることを示す。
さらに、DNNが符号化した記号的プリミティブ推論パターンのような相互作用も考慮できる。なぜなら、DNNの無作為なマスキングサンプルの無作為な数の推測スコアが、ほんの数個の相互作用の数値的効果によって常にうまく模倣可能であることを示すからである。
関連論文リスト
- Defining and Extracting generalizable interaction primitives from DNNs [22.79131582164054]
我々は、異なるディープニューラルネットワーク(DNN)で共有される相互作用を抽出する新しい方法を開発した。
実験により、抽出された相互作用は、異なるDNNが共有する共通知識をよりよく反映できることが示された。
論文 参考訳(メタデータ) (2024-01-29T17:21:41Z) - Harnessing Neuron Stability to Improve DNN Verification [42.65507402735545]
我々は最近提案されたDPLLベースの制約DNN検証手法の拡張であるVeriStableを提案する。
完全接続型フィードネットワーク(FNN)、畳み込み型ニューラルネットワーク(CNN)、残留型ネットワーク(ResNet)など、さまざまな課題のあるベンチマークにおいてVeriStableの有効性を評価する。
予備的な結果は、VeriStableは、VNN-COMPの第1および第2のパフォーマーである$alpha$-$beta$-CROWNやMN-BaBなど、最先端の検証ツールよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-01-19T23:48:04Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Verification-Aided Deep Ensemble Selection [4.290931412096984]
ディープニューラルネットワーク(DNN)は、様々な複雑なタスクを実現するための選択技術となっている。
正しく分類された入力に対する知覚できない摂動でさえ、DNNによる誤分類につながる可能性がある。
本稿では,同時エラーの少ないアンサンブル構成を同定するための方法論を考案する。
論文 参考訳(メタデータ) (2022-02-08T14:36:29Z) - A Uniform Framework for Anomaly Detection in Deep Neural Networks [0.5099811144731619]
異常入力のクラスを3つ検討する。
1)DNNとは異なる分布からの自然な入力は、OOD(Out-of-Distribution)サンプルとして訓練される。
2) 攻撃者によるIDから生成された入力は、しばしば敵(AD)サンプルとして知られ、(3)無意味なデータから生成されたノイズ(NS)サンプルである。
事前学習したDNNに対して,これらすべての異常を検出することを目的としたフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-06T22:42:30Z) - A Survey on Assessing the Generalization Envelope of Deep Neural
Networks: Predictive Uncertainty, Out-of-distribution and Adversarial Samples [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くのアプリケーションで最先端のパフォーマンスを達成する。
入力を受けたDNNが、通常、その決定基準が不透明であるため、正しい出力を提供するかどうかを事前に判断することは困難である。
本調査は,機械学習手法,特にDNNの一般化性能について,大規模フレームワーク内の3つの分野を関連づけるものである。
論文 参考訳(メタデータ) (2020-08-21T09:12:52Z) - Network Moments: Extensions and Sparse-Smooth Attacks [59.24080620535988]
ガウス入力を受ける小片方向線形(PL)ネットワーク(Affine,ReLU,Affine)の第1モーメントと第2モーメントの正確な解析式を導出する。
本研究では,新しい分散式を効率的に近似し,より厳密な分散推定を行うことを示す。
論文 参考訳(メタデータ) (2020-06-21T11:36:41Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - Interval Neural Networks: Uncertainty Scores [11.74565957328407]
我々は、事前訓練された深層ニューラルネットワーク(DNN)の出力における不確実性スコアを生成する高速で非ベイズ的手法を提案する。
このインターバルニューラルネットワーク(INN)は、インターバル値パラメータを持ち、インターバル演算を用いてその入力を伝搬する。
画像再構成タスクの数値実験において,予測誤差の代用としてINNの実用性を実証する。
論文 参考訳(メタデータ) (2020-03-25T18:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。