論文の概要: The Self-Simplifying Machine: Exploiting the Structure of Piecewise
Linear Neural Networks to Create Interpretable Models
- arxiv url: http://arxiv.org/abs/2012.01293v1
- Date: Wed, 2 Dec 2020 16:02:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 04:14:33.432299
- Title: The Self-Simplifying Machine: Exploiting the Structure of Piecewise
Linear Neural Networks to Create Interpretable Models
- Title(参考訳): 自己単純化マシン:分割線形ニューラルネットワークの構造を利用して解釈可能なモデルを作成する
- Authors: William Knauth
- Abstract要約: 本稿では,分類タスクに対するPiecewise Linear Neural Networksの単純化と解釈性向上のための新しい手法を提案する。
我々の手法には、トレーニングを伴わずに、訓練された深層ネットワークを使用して、良好なパフォーマンスと単一隠れ層ネットワークを生成する方法が含まれる。
これらの手法を用いて,モデル性能の予備的研究およびウェルズ・ファーゴのホームレンディングデータセットのケーススタディを行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Today, it is more important than ever before for users to have trust in the
models they use. As Machine Learning models fall under increased regulatory
scrutiny and begin to see more applications in high-stakes situations, it
becomes critical to explain our models. Piecewise Linear Neural Networks (PLNN)
with the ReLU activation function have quickly become extremely popular models
due to many appealing properties; however, they still present many challenges
in the areas of robustness and interpretation. To this end, we introduce novel
methodology toward simplification and increased interpretability of Piecewise
Linear Neural Networks for classification tasks. Our methods include the use of
a trained, deep network to produce a well-performing, single-hidden-layer
network without further stochastic training, in addition to an algorithm to
reduce flat networks to a smaller, more interpretable size with minimal loss in
performance. On these methods, we conduct preliminary studies of model
performance, as well as a case study on Wells Fargo's Home Lending dataset,
together with visual model interpretation.
- Abstract(参考訳): 今日では、ユーザが使用するモデルに対する信頼を得ることはこれまで以上に重要です。
機械学習モデルは、規制の精査が高まり、高い状況でより多くのアプリケーションを見始めるにつれて、モデルを説明することが重要になる。
ReLUアクティベーション機能を持つPiecewise Linear Neural Networks (PLNN) は、多くの魅力的な性質から、急速に非常に人気のあるモデルとなっているが、堅牢性や解釈の分野ではまだ多くの課題がある。
そこで本研究では,Piecewise Linear Neural Networks の簡易化と解釈性向上のための新しい手法を提案する。
提案手法は, 訓練された深層ネットワークを用いて, さらなる確率的学習を行わずに, 高性能な単層ネットワークを構築すること, フラットネットワークを小さく, 解釈可能なサイズに縮小し, 性能の低下を最小限に抑えるアルゴリズムなどを含む。
これらの手法を用いて、モデル性能の予備的研究と、ウェルズ・ファーゴのホームレンディングデータセットのケーススタディを視覚モデル解釈と共に実施する。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Unlocking the Potential of Federated Learning for Deeper Models [24.875271131226707]
フェデレートラーニング(FL)は、分散機械学習の新しいパラダイムであり、グローバルモデルを複数のクライアントでトレーニングできるようにする。
本稿では,より広義のモデルを用いたり,受容領域を縮小したりするなど,ばらつきの低減に基づくいくつかの技術ガイドラインを提案する。
これらの手法はより深いモデルにおけるFLの精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2023-06-05T08:45:44Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - Robust Graph Representation Learning via Predictive Coding [46.22695915912123]
予測符号化は、当初脳の情報処理をモデル化するために開発されたメッセージパッシングフレームワークである。
本研究では,予測符号化のメッセージパス規則に依存するモデルを構築する。
提案したモデルは,帰納的タスクと帰納的タスクの両方において,標準的なモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2022-12-09T03:58:22Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Exploring Deep Neural Networks via Layer-Peeled Model: Minority Collapse
in Imbalanced Training [39.137793683411424]
解析的に抽出できない最適化プログラムである textitLayer-Peeled Model を導入する。
このモデルでは,よく訓練されたネットワークの特徴の多くを継承し,ディープラーニング学習の一般的な経験的パターンを説明・予測するための効果的なツールを提供する。
特に,本モデルでは,テキストマイノリティ崩壊(textitMinority Collapse)という,マイノリティクラスにおけるディープラーニングモデルの性能を根本的に制限する未知の現象が明らかにされている。
論文 参考訳(メタデータ) (2021-01-29T17:37:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。