論文の概要: Sparsity-Probe: Analysis tool for Deep Learning Models
- arxiv url: http://arxiv.org/abs/2105.06849v1
- Date: Fri, 14 May 2021 14:24:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 16:45:11.348968
- Title: Sparsity-Probe: Analysis tool for Deep Learning Models
- Title(参考訳): Sparsity-Probe:ディープラーニングモデルの解析ツール
- Authors: Ido Ben-Shaul and Shai Dekel
- Abstract要約: ディープラーニングアーキテクチャとトレーニングセットが与えられたことにより、sparsityプローブは中間層のパフォーマンスを分析することができる。
我々は、sparsityプローブが所定のアーキテクチャに深さを追加することの貢献を計測し、補助的なテストデータセットを使わずにパフォーマンスの低い層等を検出する方法を示す。
- 参考スコア(独自算出の注目度): 0.5330240017302619
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a probe for the analysis of deep learning architectures that is
based on machine learning and approximation theoretical principles. Given a
deep learning architecture and a training set, during or after training, the
Sparsity Probe allows to analyze the performance of intermediate layers by
quantifying the geometrical features of representations of the training set. We
show how the Sparsity Probe enables measuring the contribution of adding depth
to a given architecture, to detect under-performing layers, etc., all this
without any auxiliary test data set.
- Abstract(参考訳): 本稿では,機械学習に基づくディープラーニングアーキテクチャ解析のためのプローブと近似理論原理を提案する。
深層学習アーキテクチャとトレーニングセットが与えられた場合、トレーニングセットの幾何学的特徴を定量化することにより、トレーニング中または訓練後の中間層のパフォーマンスを分析することができる。
Sparsity Probeは、与えられたアーキテクチャに深さを追加し、パフォーマンスの低い層等を補助的なテストデータセットなしで検出するコントリビューションを計測する方法を示します。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Persistence-based operators in machine learning [62.997667081978825]
永続性に基づくニューラルネットワークレイヤのクラスを導入します。
永続化ベースのレイヤにより、ユーザは、データによって尊重される対称性に関する知識を容易に注入でき、学習可能なウェイトを備え、最先端のニューラルネットワークアーキテクチャで構成できる。
論文 参考訳(メタデータ) (2022-12-28T18:03:41Z) - A deep scalable neural architecture for soil properties estimation from
spectral information [20.981200039553144]
本稿では,高スペクトルシグネチャ解析による土壌特性予測のための適応型深層ニューラルネットワークを提案する。
「成果は、他の最先端の方法と比較して、提案された解決策の有効性を確かめる」
論文 参考訳(メタデータ) (2022-10-26T16:50:06Z) - Self-Supervised Visual Representation Learning Using Lightweight
Architectures [0.0]
自己教師付き学習では、マシンによってアノテーションが生成されるデータセットを使用して、プレテキストタスクを解決するためにモデルが訓練される。
我々は、画像データから特徴を抽出する最も顕著な前文タスクを批判的に検討する。
我々は、他の全てのパラメータを均一に保ちながら、様々な自己監督技術の性能について研究する。
論文 参考訳(メタデータ) (2021-10-21T14:13:10Z) - Self-Supervised Monocular Depth Estimation with Internal Feature Fusion [12.874712571149725]
深度推定のための自己教師付き学習は、画像列の幾何学を用いて監督する。
そこで本研究では,ダウンおよびアップサンプリングの手順で意味情報を利用することのできる,新しい深度推定ネットワークDIFFNetを提案する。
論文 参考訳(メタデータ) (2021-10-18T17:31:11Z) - Learning to Segment Human Body Parts with Synthetically Trained Deep
Convolutional Networks [58.0240970093372]
本稿では,合成データのみを用いて学習した深部畳み込みニューラルネットワークに基づく人体部分分割のための新しい枠組みを提案する。
提案手法は,人体部品の実際の注釈付きデータを用いてモデルを訓練することなく,最先端の結果が得られる。
論文 参考訳(メタデータ) (2021-02-02T12:26:50Z) - Understanding Deep Architectures with Reasoning Layer [60.90906477693774]
本研究では,アルゴリズムの収束,安定性,感度といった特性が,エンドツーエンドモデルの近似と一般化能力と密接に関連していることを示す。
私たちの理論は、深いアーキテクチャを推論層で設計するための有用なガイドラインを提供することができます。
論文 参考訳(メタデータ) (2020-06-24T00:26:35Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - Gradients as Features for Deep Representation Learning [26.996104074384263]
本稿では,事前学習したディープ・ネットワークを様々なタスクに適応させることによって,ディープ・表現学習の課題に対処する。
我々の重要な革新は、事前訓練されたネットワークの勾配と活性化の両方を組み込んだ線形モデルの設計である。
我々は,実際の勾配を計算せずに,モデルのトレーニングと推論を効率的に行うアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-04-12T02:57:28Z) - CONSAC: Robust Multi-Model Fitting by Conditional Sample Consensus [62.86856923633923]
我々は,同じ形状の複数のパラメトリックモデルを雑音測定に適合させる頑健な推定器を提案する。
複数のモデル検出のための手作り検索戦略を利用する従来の研究とは対照的に,データから検索戦略を学習する。
探索の自己教師付き学習において,提案したアルゴリズムをマルチホログラフィー推定で評価し,最先端手法よりも優れた精度を示す。
論文 参考訳(メタデータ) (2020-01-08T17:37:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。