論文の概要: NeuroMapper: In-browser Visualizer for Neural Network Training
- arxiv url: http://arxiv.org/abs/2210.12492v1
- Date: Sat, 22 Oct 2022 16:31:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 21:26:03.689519
- Title: NeuroMapper: In-browser Visualizer for Neural Network Training
- Title(参考訳): NeuroMapper: ニューラルネットワークトレーニングのためのブラウザ内ビジュアライザ
- Authors: Zhiyan Zhou, Kevin Li, Haekyu Park, Megan Dass, Austin Wright, Nilaksh
Das, Duen Horng Chau
- Abstract要約: NeuroMapperは、機械学習(ML)開発者がトレーニング中のモデルの進化を解釈するのに役立つブラウザ内可視化ツールである。
NeuroMapperは、トレーニングエポックにまたがるモデルのブロックの埋め込みの進化をシャープに視覚化し、4万の埋め込みポイントをリアルタイムに可視化する。
- 参考スコア(独自算出の注目度): 13.443875715791544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present our ongoing work NeuroMapper, an in-browser visualization tool
that helps machine learning (ML) developers interpret the evolution of a model
during training, providing a new way to monitor the training process and
visually discover reasons for suboptimal training. While most existing deep
neural networks (DNNs) interpretation tools are designed for already-trained
model, NeuroMapper scalably visualizes the evolution of the embeddings of a
model's blocks across training epochs, enabling real-time visualization of
40,000 embedded points. To promote the embedding visualizations' spatial
coherence across epochs, NeuroMapper adapts AlignedUMAP, a recent nonlinear
dimensionality reduction technique to align the embeddings. With NeuroMapper,
users can explore the training dynamics of a Resnet-50 model, and adjust the
embedding visualizations' parameters in real time. NeuroMapper is open-sourced
at https://github.com/poloclub/NeuroMapper and runs in all modern web browsers.
A demo of the tool in action is available at:
https://poloclub.github.io/NeuroMapper/.
- Abstract(参考訳): 我々は、トレーニング中のモデルの進化を機械学習(ML)開発者が解釈するのに役立つブラウザ内可視化ツールであるNeuroMapperを紹介し、トレーニングプロセスを監視し、最適なトレーニングの理由を視覚的に発見する新しい方法を提供する。
既存のディープニューラルネットワーク(dnn)の解釈ツールは、すでにトレーニング済みのモデル用に設計されているが、neuromapperはトレーニング時代のモデルブロックの埋め込みの進化を可視化し、40,000の埋め込みポイントをリアルタイムに可視化する。
埋め込み可視化の空間的コヒーレンスを促進するため、NeuroMapperは最近の非線形次元削減技術であるAlignedUMAPを適用して埋め込みを整列させる。
neuromapperでは、resnet-50モデルのトレーニングダイナミクスを探索し、組み込みの可視化パラメータをリアルタイムで調整することができる。
NeuroMapperはhttps://github.com/poloclub/NeuroMapperでオープンソースとして公開されている。
動作中のツールのデモは、https://poloclub.github.io/NeuroMapper/.comで公開されている。
関連論文リスト
- Unsupervised representation learning with Hebbian synaptic and structural plasticity in brain-like feedforward neural networks [0.0]
教師なし表現学習が可能な脳様ニューラルネットワークモデルを導入,評価する。
このモデルは、一般的な機械学習ベンチマークのさまざまなセットでテストされた。
論文 参考訳(メタデータ) (2024-06-07T08:32:30Z) - Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Neuro-Visualizer: An Auto-encoder-based Loss Landscape Visualization
Method [4.981452040789784]
本稿では,ニューロ・ビジュアライザー (Neuro-Visualizer) と呼ばれる,自動エンコーダを用いた非線形景観可視化手法を提案する。
この結果,Neuro-Visualizerは,他の線状および非線状ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-09-26T01:10:16Z) - Spiking neural networks with Hebbian plasticity for unsupervised
representation learning [0.0]
教師なしの手順でデータから分散内部表現を学習するための新しいスパイクニューラルネットワークモデルを提案する。
オンライン相関に基づくHebbian-Bayesian学習と再配線機構を,前述した表現学習をスパイクニューラルネットワークに導入する。
我々は,非スパイクBCPNNに近い性能を示し,MNISTとF-MNISTの機械学習ベンチマークでトレーニングした場合,他のヘビーンのスパイクネットワークと競合することを示す。
論文 参考訳(メタデータ) (2023-05-05T22:34:54Z) - NCTV: Neural Clamping Toolkit and Visualization for Neural Network
Calibration [66.22668336495175]
ニューラルネットワークのキャリブレーションに対する考慮の欠如は、人間から信頼を得ることはないだろう。
我々はNeural Clamping Toolkitを紹介した。これは開発者が最先端のモデルに依存しないキャリブレーションモデルを採用するのを支援するために設計された最初のオープンソースフレームワークである。
論文 参考訳(メタデータ) (2022-11-29T15:03:05Z) - Visualizing Deep Neural Networks with Topographic Activation Maps [1.1470070927586014]
我々は,ディープニューラルネットワーク層におけるニューロンの地形的レイアウトを求める手法を紹介し,比較する。
本研究では,地形のアクティベーションマップを用いて誤りの特定やバイアスのエンコードを行い,トレーニングプロセスの可視化を行う。
論文 参考訳(メタデータ) (2022-04-07T15:56:44Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Training Spiking Neural Networks Using Lessons From Deep Learning [28.827506468167652]
シナプスとニューロンの内部構造は、ディープラーニングの未来を垣間見ることができます。
いくつかのアイデアはニューロモルフィックエンジニアリングコミュニティでよく受け入れられ、一般的に使われているが、他のアイデアはここで初めて提示または正当化されている。
PythonパッケージであるsnnTorchを使って、この論文を補完する一連のインタラクティブチュートリアルも利用可能である。
論文 参考訳(メタデータ) (2021-09-27T09:28:04Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。