論文の概要: Prophecy: Inferring Formal Properties from Neuron Activations
- arxiv url: http://arxiv.org/abs/2509.21677v1
- Date: Thu, 25 Sep 2025 22:50:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.06938
- Title: Prophecy: Inferring Formal Properties from Neuron Activations
- Title(参考訳): 予言:ニューロンの活性化による形態的特性の推測
- Authors: Divya Gopinath, Corina S. Pasareanu, Muhammad Usman,
- Abstract要約: 本稿では,フィードフォワードニューラルネットワークの形式的特性を自動推論するProphecyを提案する。
予言は、望ましい出力特性を暗示する前提条件として、ニューロンの活性化に基づく規則を抽出することで機能する。
本稿では,ニューラルネットワークの形式的説明の推論や証明,構成検証,実行時の監視,修復など,その応用の概要を紹介する。
- 参考スコア(独自算出の注目度): 2.874547908846709
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Prophecy, a tool for automatically inferring formal properties of feed-forward neural networks. Prophecy is based on the observation that a significant part of the logic of feed-forward networks is captured in the activation status of the neurons at inner layers. Prophecy works by extracting rules based on neuron activations (values or on/off statuses) as preconditions that imply certain desirable output property, e.g., the prediction being a certain class. These rules represent network properties captured in the hidden layers that imply the desired output behavior. We present the architecture of the tool, highlight its features and demonstrate its usage on different types of models and output properties. We present an overview of its applications, such as inferring and proving formal explanations of neural networks, compositional verification, run-time monitoring, repair, and others. We also show novel results highlighting its potential in the era of large vision-language models.
- Abstract(参考訳): 本稿では,フィードフォワードニューラルネットワークの形式的特性を自動推論するProphecyを提案する。
予言は、内層におけるニューロンの活性化状態において、フィードフォワードネットワークの論理のかなりの部分が捉えられるという観察に基づいている。
予言は、ニューロンの活性化(値またはオン/オフ状態)に基づく規則を、望ましい出力特性、例えば、予測が特定のクラスであることを暗示する前提条件として抽出することで機能する。
これらのルールは、所望の出力動作を示す隠されたレイヤでキャプチャされたネットワーク特性を表す。
ツールのアーキテクチャを示し、その特徴を強調し、異なるタイプのモデルと出力特性でその使い方を実証する。
本稿では,ニューラルネットワークの形式的説明の推論や証明,構成検証,実行時の監視,修復など,その応用の概要を紹介する。
また、大きな視覚言語モデルの時代におけるその可能性を示す新しい結果を示す。
関連論文リスト
- Allostatic Control of Persistent States in Spiking Neural Networks for perception and computation [79.16635054977068]
本稿では,アロスタシスの概念を内部表現の制御に拡張することにより,環境に対する知覚的信念を更新するための新しいモデルを提案する。
本稿では,アトラクタネットワークにおける活動の急増を空間的数値表現として利用する数値認識の応用に焦点を当てる。
論文 参考訳(メタデータ) (2025-03-20T12:28:08Z) - A Comprehensive Survey on Self-Interpretable Neural Networks [36.0575431131253]
自己解釈型ニューラルネットワークは、本質的にモデル構造を通して予測合理的性を明らかにする。
まず、自己解釈型ニューラルネットワークに関する既存の研究を収集、レビューし、その方法論を構造化した概要を提供する。
また、モデル説明の具体的、可視化された例を示し、その適用性について様々なシナリオで論じる。
論文 参考訳(メタデータ) (2025-01-26T18:50:16Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Seeing in Words: Learning to Classify through Language Bottlenecks [59.97827889540685]
人間は簡潔で直感的な説明を使って予測を説明することができる。
特徴表現がテキストである視覚モデルでは,画像ネットイメージを効果的に分類できることを示す。
論文 参考訳(メタデータ) (2023-06-29T00:24:42Z) - Robust Graph Representation Learning via Predictive Coding [46.22695915912123]
予測符号化は、当初脳の情報処理をモデル化するために開発されたメッセージパッシングフレームワークである。
本研究では,予測符号化のメッセージパス規則に依存するモデルを構築する。
提案したモデルは,帰納的タスクと帰納的タスクの両方において,標準的なモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2022-12-09T03:58:22Z) - Graph neural networks for the prediction of molecular structure-property
relationships [59.11160990637615]
グラフニューラルネットワーク(GNN)は、分子グラフ上で直接動作する新しい機械学習手法である。
GNNは、エンドツーエンドでプロパティを学習できるため、情報記述子の必要性を回避することができる。
本稿では、分子特性予測のための2つの例を通して、GNNの基礎を説明し、GNNの応用を実証する。
論文 参考訳(メタデータ) (2022-07-25T11:30:44Z) - Cardinality-Minimal Explanations for Monotonic Neural Networks [25.212444848632515]
本稿では,単調関数を実装したニューラルモデルに着目して,トラクタビリティを回復できるかどうかを検討する。
関連する決定問題は引き続き難解であるが、有利な時間で解決可能であることを示すことができる。
論文 参考訳(メタデータ) (2022-05-19T23:47:25Z) - Privacy-preserving machine learning with tensor networks [37.01494003138908]
テンソルネットワークアーキテクチャは、特にプライバシー保護機械学習に期待できる特性を持つことを示す。
まず、フィードフォワードニューラルネットワークに存在する新たなプライバシ脆弱性を説明し、それを合成および実世界のデータセットで説明する。
このような条件がテンソルネットワークアーキテクチャによって満たされていることを厳密に証明する。
論文 参考訳(メタデータ) (2022-02-24T19:04:35Z) - Neural Networks and Denotation [0.0]
訓練されたニューラルネットワークでニューロンがどのような意味を捉えているのかを推論するためのフレームワークを紹介します。
我々は,特定の分類問題の文脈においてオブザーバモデルを実装し,評価する。
可視化を用いて,ニューラルネットワークが入力の有意な特性を識別する方法に関する洞察を抽出する。
論文 参考訳(メタデータ) (2021-03-15T15:32:22Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。