論文の概要: Space Explanations of Neural Network Classification
- arxiv url: http://arxiv.org/abs/2511.22498v1
- Date: Thu, 27 Nov 2025 14:33:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.607025
- Title: Space Explanations of Neural Network Classification
- Title(参考訳): ニューラルネットワーク分類の空間説明
- Authors: Faezeh Labbaf, Tomáš Kolárik, Martin Blicha, Grigory Fedyukovich, Michael Wand, Natasha Sharygina,
- Abstract要約: 本稿では,ニューラルネットワークを分類するための空間説明という,論理に基づく新しい概念を提案する。
空間説明を自動的に生成するために、様々な柔軟なCraigアルゴリズムと不満足なコア生成を利用する。
- 参考スコア(独自算出の注目度): 2.823533769284529
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel logic-based concept called Space Explanations for classifying neural networks that gives provable guarantees of the behavior of the network in continuous areas of the input feature space. To automatically generate space explanations, we leverage a range of flexible Craig interpolation algorithms and unsatisfiable core generation. Based on real-life case studies, ranging from small to medium to large size, we demonstrate that the generated explanations are more meaningful than those computed by state-of-the-art.
- Abstract(参考訳): 入力特徴空間の連続領域におけるネットワークの挙動を証明可能な保証を与えるニューラルネットワークの分類のための空間説明と呼ばれる新しい論理ベースの概念を提案する。
空間説明を自動的に生成するために,フレキシブルなCraig補間アルゴリズムと不満足なコア生成を利用する。
実生活におけるケーススタディ(中小規模から大規模まで)に基づいて、生成した説明が最先端技術によって計算されたものよりも有意義であることを示す。
関連論文リスト
- The Origins of Representation Manifolds in Large Language Models [52.68554895844062]
表現空間におけるコサイン類似性は、最短のオンマンフォールド経路を通して特徴の内在幾何学を符号化することができることを示す。
理論の臨界仮定と予測は、大きな言語モデルのテキスト埋め込みとトークンアクティベーションに基づいて検証される。
論文 参考訳(メタデータ) (2025-05-23T13:31:22Z) - On Space Folds of ReLU Neural Networks [6.019268056469171]
近年の研究では、ReLUニューラルネットワークは入力空間の空間折り畳みとして幾何学的に理解できることが示唆されている。
本稿では、この空間現象をReLUモデルで初めて定量的に解析する。
論文 参考訳(メタデータ) (2025-02-14T07:22:24Z) - Discovering Chunks in Neural Embeddings for Interpretability [53.80157905839065]
本稿では, チャンキングの原理を応用して, 人工神経集団活動の解釈を提案する。
まず、この概念を正則性を持つ人工シーケンスを訓練したリカレントニューラルネットワーク(RNN)で実証する。
我々は、これらの状態に対する摂動が関連する概念を活性化または阻害すると共に、入力における概念に対応する同様の繰り返し埋め込み状態を特定する。
論文 参考訳(メタデータ) (2025-02-03T20:30:46Z) - Neural reproducing kernel Banach spaces and representer theorems for deep networks [14.902126718612648]
ディープニューラルネットワークは、適切なカーネルバナッハ空間の再生を定義する。
応用において一般的に用いられる有限アーキテクチャを正当化する代表者定理を導出する。
論文 参考訳(メタデータ) (2024-03-13T17:51:02Z) - Conditional computation in neural networks: principles and research trends [48.14569369912931]
本稿では,ニューラルネットワークの設計にテクトコンディショナリ計算を適用するという,新たな領域の原理とアイデアを要約する。
特に、入力に条件付きで計算グラフの一部を動的に活性化または非活性化するニューラルネットワークに焦点を当てる。
論文 参考訳(メタデータ) (2024-03-12T11:56:38Z) - Efficient compilation of expressive problem space specifications to
neural network solvers [0.0]
前者を後者にコンパイルするアルゴリズムについて述べる。
我々は、標準のSMTソルバとは対照的に、ニューラルネットワークソルバをターゲットにして発生する複雑さを探索し、克服する。
論文 参考訳(メタデータ) (2024-01-24T09:13:09Z) - DepWiGNN: A Depth-wise Graph Neural Network for Multi-hop Spatial
Reasoning in Text [52.699307699505646]
マルチホップ空間推論のためのDepWiGNN(Depth-Wise Graph Neural Network)を提案する。
具体的には,新しいノードメモリ方式を設計し,グラフの幅次元ではなく深さ次元の情報を集約する。
2つの挑戦的なマルチホップ空間推論データセットの実験結果から,DepWiGNNが既存の空間推論手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-10-19T08:07:22Z) - Finite-time Lyapunov exponents of deep neural networks [0.0]
入力摂動がディープニューラルネットワークの出力に与える影響を計算する。
入力空間における最大指数は、力学系のコヒーレント構造に似た幾何学的構造を形成することを示す。
論文 参考訳(メタデータ) (2023-06-21T20:21:23Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。