論文の概要: xRAI: Explainable Representations through AI
- arxiv url: http://arxiv.org/abs/2012.06006v1
- Date: Thu, 10 Dec 2020 22:49:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 06:36:20.576881
- Title: xRAI: Explainable Representations through AI
- Title(参考訳): xRAI: AIによる説明可能な表現
- Authors: Christiann Bartelt and Sascha Marton and Heiner Stuckenschmidt
- Abstract要約: 本稿では,ニューラルネットワークがトレーニングしたネットワークから学習すべき数学的関数の記号表現を抽出する手法を提案する。
このアプローチは、訓練されたネットワークの重みとバイアスを入力として受信し、ネットワークが直接シンボリック表現に変換できる学習すべき関数の数値表現を出力する、いわゆる解釈ネットワークを訓練するというアイデアに基づいています。
- 参考スコア(独自算出の注目度): 10.345196226375455
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present xRAI an approach for extracting symbolic representations of the
mathematical function a neural network was supposed to learn from the trained
network. The approach is based on the idea of training a so-called
interpretation network that receives the weights and biases of the trained
network as input and outputs the numerical representation of the function the
network was supposed to learn that can be directly translated into a symbolic
representation. We show that interpretation nets for different classes of
functions can be trained on synthetic data offline using Boolean functions and
low-order polynomials as examples. We show that the training is rather
efficient and the quality of the results are promising. Our work aims to
provide a contribution to the problem of better understanding neural decision
making by making the target function explicit
- Abstract(参考訳): 本稿では,ニューラルネットワークがトレーニングされたネットワークから学習すべき数学的関数の記号表現を抽出する手法を提案する。
この手法は、訓練されたネットワークの重みとバイアスを入力として受け取り、ネットワークが学習する関数の数値表現をシンボル表現に直接変換できるいわゆる解釈ネットワークを訓練する考え方に基づいている。
ブール関数と低階多項式を例に、関数の異なるクラスに対する解釈ネットをオフラインで学習可能であることを示す。
トレーニングはかなり効率的で、結果の品質が有望であることを示す。
我々の研究は,目標関数を明確化することで,神経決定の理解を深める問題への貢献を提供することを目的としている。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Reasoning-Modulated Representations [85.08205744191078]
タスクが純粋に不透明でないような共通的な環境について研究する。
我々のアプローチは、新しいデータ効率表現学習の道を開く。
論文 参考訳(メタデータ) (2021-07-19T13:57:13Z) - The Connection Between Approximation, Depth Separation and Learnability
in Neural Networks [70.55686685872008]
学習可能性と近似能力の関係について検討する。
対象関数の深いネットワークでの学習性は、より単純なクラスがターゲットを近似する能力に依存することを示す。
論文 参考訳(メタデータ) (2021-01-31T11:32:30Z) - Reward Propagation Using Graph Convolutional Networks [61.32891095232801]
本稿では,グラフ表現学習のアイデアを活用した潜在機能学習フレームワークを提案する。
我々のアプローチは、強化学習の確率論的推論と組み合わせて、重要な要素として使用するグラフ畳み込みネットワークに依存している。
論文 参考訳(メタデータ) (2020-10-06T04:38:16Z) - The Representation Theory of Neural Networks [7.724617675868718]
ニューラルネットワークは、量子表現の数学的理論によって表現できることを示す。
ネットワーククイバーが共通のニューラルネットワークの概念に優しく適応していることを示します。
また、ニューラルネットワークがデータから表現を生成する方法を理解するためのクイバー表現モデルも提供します。
論文 参考訳(メタデータ) (2020-07-23T19:02:14Z) - Towards Understanding Hierarchical Learning: Benefits of Neural
Representations [160.33479656108926]
この研究で、中間的神経表現がニューラルネットワークにさらなる柔軟性をもたらすことを実証する。
提案手法は, 生の入力と比較して, サンプルの複雑度を向上できることを示す。
この結果から, 深度が深層学習においてなぜ重要かという新たな視点が得られた。
論文 参考訳(メタデータ) (2020-06-24T02:44:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。