論文の概要: Interpretable Models in ANNs
- arxiv url: http://arxiv.org/abs/2011.12424v1
- Date: Tue, 24 Nov 2020 22:09:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 12:24:59.417109
- Title: Interpretable Models in ANNs
- Title(参考訳): ANNにおける解釈モデル
- Authors: Yang Li
- Abstract要約: 例えば物理学の法則では、このパターンは比較的単純な数学的表現によって記述することができる。
本稿では,ネットワークの説明方法を見つけ,そのモデルを記述する人間可読方程式を抽出する。
- 参考スコア(独自算出の注目度): 5.17900889163564
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Artificial neural networks are often very complex and too deep for a human to
understand. As a result, they are usually referred to as black boxes. For a lot
of real-world problems, the underlying pattern itself is very complicated, such
that an analytic solution does not exist. However, in some cases, laws of
physics, for example, the pattern can be described by relatively simple
mathematical expressions. In that case, we want to get a readable equation
rather than a black box. In this paper, we try to find a way to explain a
network and extract a human-readable equation that describes the model.
- Abstract(参考訳): ニューラルネットワークは、しばしば非常に複雑で、人間が理解するには深すぎる。
そのため、通常はブラックボックスと呼ばれる。
現実世界の多くの問題に対して、基盤となるパターン自体は非常に複雑であり、分析的な解決策が存在しない。
しかし、例えば物理学の法則では、このパターンは比較的単純な数学的表現によって記述することができる。
その場合、我々はブラックボックスではなく読みやすい方程式を得たい。
本稿では,ネットワークの説明方法を見つけ,そのモデルを記述する人間可読方程式を抽出する。
関連論文リスト
- PuzzleVQA: Diagnosing Multimodal Reasoning Challenges of Language Models with Abstract Visual Patterns [69.17409440805498]
基本概念に基づいた抽象パターンを用いた大規模マルチモーダルモデルの評価を行った。
単純な抽象パターンをうまく一般化できないことが分かりました。
系統解析の結果, GPT-4Vの主なボトルネックは視覚知覚の弱さと誘導的推論能力であることがわかった。
論文 参考訳(メタデータ) (2024-03-20T05:37:24Z) - Learning Modulo Theories [47.04194097652154]
深層ニューラルネットワーク(Deep Neural Networks:DNN)にエファンゾルバ層を統合する最近の技術は、帰納的学習と象徴的推論技術の間の長年のギャップを埋めることにおいて、有望であることを示している。
本稿では,EmphSatisfiability Modulo Theories (SMT)ソルバを深層ネットワーク層(SMTLayer)の前方・後方パスに統合する手法について述べる。
論文 参考訳(メタデータ) (2023-01-26T21:46:23Z) - On the balance between the training time and interpretability of neural
ODE for time series modelling [77.34726150561087]
本稿は,現代のニューラルODEを,時系列モデリングアプリケーションのためのより単純なモデルに還元することはできないことを示す。
ニューラルODEの複雑さは、従来の時系列モデリングツールと比較されるか、超える。
本稿では,ニューラルネットワークとODEシステムを用いた時系列モデリングの新しい視点を提案する。
論文 参考訳(メタデータ) (2022-06-07T13:49:40Z) - Is explainable AI a race against model complexity? [11.104666702713793]
脳のスケールモデルによって予測される全ての予測について説明できないかもしれない。
モデルは説明に先行し、モデルと説明の両方が正しくない場合でも有用である。
論文 参考訳(メタデータ) (2022-05-17T09:57:25Z) - On the Compression of Natural Language Models [0.0]
我々は、量子化、知識蒸留、プルーニングといった最先端の圧縮技術についてレビューする。
本研究の目的は、自然言語モデル(NLM)にそのような訓練可能なサブネットワークが存在するかどうかを評価することである。
論文 参考訳(メタデータ) (2021-12-13T08:14:21Z) - Seeking Patterns, Not just Memorizing Procedures: Contrastive Learning
for Solving Math Word Problems [14.144577791030853]
ニューラルネットワークが意味論からのみパターンを理解する方法について検討する。
本稿では,ニューラルネットワークがパターンの発散を知覚する,対照的な学習手法を提案する。
本手法は単言語および多言語設定における性能を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-16T04:03:47Z) - Abstraction, Reasoning and Deep Learning: A Study of the "Look and Say"
Sequence [0.0]
ディープニューラルネットワークは、大規模なデータセットでトレーニングされた場合、高い能力(精度で測定される)を示すことができる。
パズルデータ「Look and Say」の2つのセット実験について報告する。
トレーニングデータとテストデータの両方で)驚くべき精度にもかかわらず、実際のL&Sシーケンス上でのトレーニングプログラムのパフォーマンスは悪いです。
論文 参考訳(メタデータ) (2021-09-27T01:41:37Z) - Can You Learn an Algorithm? Generalizing from Easy to Hard Problems with
Recurrent Networks [47.54459795966417]
単純な問題を解くために訓練されたリカレントネットワークは、推論中に追加の繰り返しを実行するだけで、はるかに複雑な問題を解くことができることを示す。
これら3つのドメインすべてにおいて、単純な問題インスタンスに基づいてトレーニングされたネットワークは、単に"もっと長く考える"ことで、テスト時に推論能力を拡張することができる。
論文 参考訳(メタデータ) (2021-06-08T17:19:48Z) - Thinking Deeply with Recurrence: Generalizing from Easy to Hard
Sequential Reasoning Problems [51.132938969015825]
我々は、リカレントネットワークは、非リカレントディープモデルの振る舞いを詳細にエミュレートする能力を有することを観察する。
再帰ステップの少ない単純な迷路を解くように訓練された再帰ネットワークは、推論中に追加の繰り返しを実行するだけで、より複雑な問題を解決することができる。
論文 参考訳(メタデータ) (2021-02-22T14:09:20Z) - Model Interpretability through the Lens of Computational Complexity [1.6631602844999724]
民間の解釈可能性主張が計算複雑性理論に相関しているかどうかを考察する。
線形モデルとツリーモデルの両方がニューラルネットワークよりも厳密に解釈可能であることを示す。
論文 参考訳(メタデータ) (2020-10-23T09:50:40Z) - Multi-Step Inference for Reasoning Over Paragraphs [95.91527524872832]
テキスト上の複雑な推論には、自由形式の述語と論理的な連結体を理解し、連鎖する必要がある。
本稿では,ニューラルネットワークを連想させる構成モデルを提案する。
論文 参考訳(メタデータ) (2020-04-06T21:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。