論文の概要: Demystifying Deep Neural Networks Through Interpretation: A Survey
- arxiv url: http://arxiv.org/abs/2012.07119v2
- Date: Tue, 5 Jan 2021 20:41:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-09 12:50:08.978483
- Title: Demystifying Deep Neural Networks Through Interpretation: A Survey
- Title(参考訳): 解釈による深層ニューラルネットワークの非神秘化:調査
- Authors: Giang Dao and Minwoo Lee
- Abstract要約: 現代のディープラーニングアルゴリズムは、トレーニングデータセットにおけるクロスエントロピー損失を最小限に抑えるなど、客観的なメトリックを最適化して学習する傾向にある。
問題は、単一の計量が現実世界のタスクの不完全な記述であることだ。
ニューラルネットワークの振る舞いや思考プロセスに関する洞察を提供するために、解釈可能性という問題に取り組む作業が行われている。
- 参考スコア(独自算出の注目度): 3.566184392528658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern deep learning algorithms tend to optimize an objective metric, such as
minimize a cross entropy loss on a training dataset, to be able to learn. The
problem is that the single metric is an incomplete description of the real
world tasks. The single metric cannot explain why the algorithm learn. When an
erroneous happens, the lack of interpretability causes a hardness of
understanding and fixing the error. Recently, there are works done to tackle
the problem of interpretability to provide insights into neural networks
behavior and thought process. The works are important to identify potential
bias and to ensure algorithm fairness as well as expected performance.
- Abstract(参考訳): 現代のディープラーニングアルゴリズムは、トレーニングデータセットにおけるクロスエントロピー損失を最小限に抑えるなど、客観的なメトリックを最適化する傾向にある。
問題は、単一の計量が現実世界のタスクの不完全な記述であることだ。
単一の計量はアルゴリズムがなぜ学習するかを説明できない。
誤った場合、解釈可能性の欠如は、エラーの理解と修正が困難になる。
近年、ニューラルネットワークの振る舞いや思考プロセスに関する洞察を提供するために、解釈可能性の問題に取り組む作業が行われている。
この研究は潜在的なバイアスを特定し、アルゴリズムの公平性と期待する性能を確保するために重要である。
関連論文リスト
- SGD method for entropy error function with smoothing l0 regularization for neural networks [3.108634881604788]
エントロピー誤差関数はニューラルネットワークで広く使われている。
本稿では,フィードフォワードニューラルネットワークの規則化を円滑に行うエントロピー関数を提案する。
ニューラルネットワークを効果的に学習し、より正確な予測を可能にするため、私たちの仕事は新しくなっています。
論文 参考訳(メタデータ) (2024-05-28T19:54:26Z) - The Lattice Overparametrization Paradigm for the Machine Learning of
Lattice Operators [0.0]
本稿では,格子内の要素を介してクラスを過度にパラメータ化することにより,格子内の関数を最小化するアルゴリズムを適用する学習パラダイムについて論じる。
この学習パラダイムには、制御、透明性、解釈可能性という、ニューラルネットワークに基づく現代的な手法に欠けている3つの特性がある。
論文 参考訳(メタデータ) (2023-10-10T14:00:03Z) - The Clock and the Pizza: Two Stories in Mechanistic Explanation of
Neural Networks [59.26515696183751]
ニューラルネットワークにおけるアルゴリズム発見は、時としてより複雑であることを示す。
単純な学習問題でさえ、驚くほど多様なソリューションを許容できることが示されています。
論文 参考訳(メタデータ) (2023-06-30T17:59:13Z) - How does unlabeled data improve generalization in self-training? A
one-hidden-layer theoretical analysis [93.37576644429578]
この研究は、既知の反復的自己学習パラダイムに関する最初の理論的分析を確立する。
トレーニング収束と一般化能力の両面で、ラベルなしデータの利点を実証する。
また、浅部ニューラルネットワークから深部ニューラルネットワークへの実験は、我々の確立した自己学習に関する理論的知見の正しさを正当化するものである。
論文 参考訳(メタデータ) (2022-01-21T02:16:52Z) - Knowledge accumulating: The general pattern of learning [5.174379158867218]
現実世界のタスクを解決するには、タスク固有の機能に合うようにアルゴリズムを調整する必要があります。
一つのアルゴリズムは、どのように改善しても、密集したフィードバックタスクや、特定のスパースなフィードバックタスクだけを解くことができる。
本稿ではまず,スパースフィードバックがアルゴリズムのパーファマンスにどのように影響するかを解析し,その上で,スパースフィードバック問題を解決するために知識を蓄積する方法を説明するパターンを提案する。
論文 参考訳(メタデータ) (2021-08-09T12:41:28Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Low-Regret Active learning [64.36270166907788]
トレーニングに最も有用なラベル付きデータポイントを識別するオンライン学習アルゴリズムを開発した。
私たちの仕事の中心は、予測可能な(簡単な)インスタンスの低い後悔を達成するために調整された睡眠専門家のための効率的なアルゴリズムです。
論文 参考訳(メタデータ) (2021-04-06T22:53:45Z) - The Connection Between Approximation, Depth Separation and Learnability
in Neural Networks [70.55686685872008]
学習可能性と近似能力の関係について検討する。
対象関数の深いネットワークでの学習性は、より単純なクラスがターゲットを近似する能力に依存することを示す。
論文 参考訳(メタデータ) (2021-01-31T11:32:30Z) - Improving Bayesian Network Structure Learning in the Presence of
Measurement Error [11.103936437655575]
本稿では,構造学習アルゴリズムの最後に付加的な学習フェーズとして加えることができるアルゴリズムについて述べる。
提案アルゴリズムは、4つの確立された構造学習アルゴリズムのグラフィカルスコアの改善に成功している。
論文 参考訳(メタデータ) (2020-11-19T11:27:47Z) - An Empirical Study of Incremental Learning in Neural Network with Noisy
Training Set [0.0]
我々は,アルゴリズムの精度が誤差の割合よりも誤差の位置に依存することを数値的に示す。
その結果,誤差位置の精度依存性はアルゴリズムとは無関係であることが判明した。
論文 参考訳(メタデータ) (2020-05-07T06:09:31Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。