論文の概要: Prime Convolutional Model: Breaking the Ground for Theoretical Explainability
- arxiv url: http://arxiv.org/abs/2503.02773v1
- Date: Tue, 04 Mar 2025 16:42:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:22:38.244438
- Title: Prime Convolutional Model: Breaking the Ground for Theoretical Explainability
- Title(参考訳): 素数畳み込みモデル:理論的説明可能性の基盤を破る
- Authors: Francesco Panelli, Doaa Almhaithawi, Tania Cerquitelli, Alessandro Bellini,
- Abstract要約: 我々は、説明可能なAIに新たな理論的アプローチを提案する。
制御環境におけるケーススタディに本手法を適用した。
p-Convの異なる挙動は、$m$と$B$で数学的にモデル化できることを示す。
- 参考スコア(独自算出の注目度): 45.07003937279752
- License:
- Abstract: In this paper, we propose a new theoretical approach to Explainable AI. Following the Scientific Method, this approach consists in formulating on the basis of empirical evidence, a mathematical model to explain and predict the behaviors of Neural Networks. We apply the method to a case study created in a controlled environment, which we call Prime Convolutional Model (p-Conv for short). p-Conv operates on a dataset consisting of the first one million natural numbers and is trained to identify the congruence classes modulo a given integer $m$. Its architecture uses a convolutional-type neural network that contextually processes a sequence of $B$ consecutive numbers to each input. We take an empirical approach and exploit p-Conv to identify the congruence classes of numbers in a validation set using different values for $m$ and $B$. The results show that the different behaviors of p-Conv (i.e., whether it can perform the task or not) can be modeled mathematically in terms of $m$ and $B$. The inferred mathematical model reveals interesting patterns able to explain when and why p-Conv succeeds in performing task and, if not, which error pattern it follows.
- Abstract(参考訳): 本稿では,説明可能なAIに対する新しい理論的アプローチを提案する。
科学的手法に従うと、ニューラルネットワークの振る舞いを説明し予測するための数学的モデルである経験的エビデンスに基づいて定式化される。
制御された環境で作成したケーススタディに本手法を適用し,Prime Convolutional Model(略してp-Conv)と呼ぶ。
p-Convは、最初の100万の自然数からなるデータセットで動作し、与えられた整数$m$の合同クラスを特定するように訓練されている。
そのアーキテクチャは畳み込み型ニューラルネットワークを使用し、各入力に対してB$連続数列を文脈的に処理する。
実験的なアプローチを採用し、p-Convを利用して、$m$と$B$の異なる値を用いて検証セット内の数値の合同クラスを識別する。
結果は、p-Convの異なる振る舞い(つまり、タスクを実行可能かどうか)は、$m$と$B$で数学的にモデル化できることを示している。
推論された数学的モデルは、p-Convがいつ、なぜタスクの実行に成功し、そうでなければ、どのエラーパターンに従うかを説明することができる興味深いパターンを明らかにする。
関連論文リスト
- On Computational Limits and Provably Efficient Criteria of Visual Autoregressive Models: A Fine-Grained Complexity Analysis [22.641550077885686]
我々は,Visual Autoregressive(mathsf/$)モデルの計算限界と効率基準を分析する。
より詳細な複雑性理論からStrong Exponential Time hypothesis(mathsfSETH$)を仮定すると、$mathsf/$モデルに対する準量子時間アルゴリズムは不可能である。
私たちの技術は、$mathsf/$フレームワークでスケーラブルで効率的な画像生成を推し進めることに重点を置いています。
論文 参考訳(メタデータ) (2025-01-08T09:34:15Z) - Graph Stochastic Neural Process for Inductive Few-shot Knowledge Graph Completion [63.68647582680998]
I-FKGC(inductive few-shot knowledge graph completion)と呼ばれる課題に焦点をあてる。
帰納的推論(inductive reasoning)の概念に着想を得て,I-FKGCを帰納的推論問題とした。
本稿では,仮説の連成分布をモデル化したニューラルプロセスに基づく仮説抽出器を提案する。
第2のモジュールでは、この仮説に基づいて、クエリセットのトリプルが抽出された仮説と一致するかどうかをテストするグラフアテンションベースの予測器を提案する。
論文 参考訳(メタデータ) (2024-08-03T13:37:40Z) - A Feedforward Unitary Equivariant Neural Network [3.6220250022337335]
我々は新しいタイプのフィードフォワードニューラルネットワークを考案した。
これはユニタリ群 $U(n)$ に対して同変である。
入力と出力は任意の次元が$n$の$mathbbCn$のベクトルである。
論文 参考訳(メタデータ) (2022-08-25T15:05:02Z) - Neural Implicit Manifold Learning for Topology-Aware Density Estimation [15.878635603835063]
現在の生成モデルは、ニューラルネットワークを介して$m$次元の潜在変数をマッピングすることで、$mathcalM$を学ぶ。
我々のモデルは、プッシュフォワードモデルよりも複雑なトポロジーを持つ多様体支持分布を正確に学習できることが示される。
論文 参考訳(メタデータ) (2022-06-22T18:00:00Z) - Neural Unification for Logic Reasoning over Natural Language [0.28675177318965034]
自動定理証明(Automated Theorem Proving)は、いくつかの予想(クエリ)が一連の公理(事実と規則)の論理的な結果であることを示すことができるコンピュータプログラムの開発を扱う。
近年のアプローチでは、自然言語(英語)で表される公理の予想を導出するトランスフォーマーに基づくアーキテクチャが提案されている。
本研究は, 一般化の項における最先端結果を実現するニューラルユニファイザという, 新たなアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-09-17T10:48:39Z) - Thought Flow Nets: From Single Predictions to Trains of Model Thought [39.619001911390804]
人間が複雑な問題を解くと、すぐに決定が下されることはめったにない。
その代わり、彼らは直感的な決定から始まり、間違いを見つけ、矛盾を解決し、異なる仮説の間を飛び交う。
論文 参考訳(メタデータ) (2021-07-26T13:56:37Z) - Improving Robustness and Generality of NLP Models Using Disentangled
Representations [62.08794500431367]
スーパービジョンニューラルネットワークはまず入力$x$を単一の表現$z$にマップし、次に出力ラベル$y$にマッピングする。
本研究では,非交叉表現学習の観点から,NLPモデルの堅牢性と汎用性を改善する手法を提案する。
提案した基準でトレーニングしたモデルは、広範囲の教師付き学習タスクにおいて、より堅牢性とドメイン適応性を向上することを示す。
論文 参考訳(メタデータ) (2020-09-21T02:48:46Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z) - Neural Bayes: A Generic Parameterization Method for Unsupervised
Representation Learning [175.34232468746245]
本稿ではニューラルベイズと呼ばれるパラメータ化手法を提案する。
これは一般に計算が難しい統計量の計算を可能にする。
このパラメータ化のための2つの独立したユースケースを示す。
論文 参考訳(メタデータ) (2020-02-20T22:28:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。