論文の概要: From Tinkering to Engineering: Measurements in Tensorflow Playground
- arxiv url: http://arxiv.org/abs/2101.04141v1
- Date: Mon, 11 Jan 2021 19:06:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 16:03:06.872919
- Title: From Tinkering to Engineering: Measurements in Tensorflow Playground
- Title(参考訳): Tinkeringからエンジニアリングへ:Tensorflow Playgroundにおける計測
- Authors: Henrik Hoeiness and Axel Harstad and Gerald Friedland
- Abstract要約: TFMeterはインタラクティブなニューラルネットワーク設計ツールである。
ニューラルネットワークのさまざまなアーキテクチャを視覚的に生成することができる。
ネットワークの構築、トレーニング、テスト中に、情報理論の測定結果を表示する。
- 参考スコア(独自算出の注目度): 4.191355084788723
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this article, we present an extension of the Tensorflow Playground, called
Tensorflow Meter (short TFMeter). TFMeter is an interactive neural network
architecting tool that allows the visual creation of different architectures of
neural networks. In addition to its ancestor, the playground, our tool shows
information-theoretic measurements while constructing, training, and testing
the network. As a result, each change results in a change in at least one of
the measurements, providing for a better engineering intuition of what
different architectures are able to learn. The measurements are derived from
various places in the literature. In this demo, we describe our web application
that is available online at http://tfmeter.icsi.berkeley.edu/ and argue that in
the same way that the original Playground is meant to build an intuition about
neural networks, our extension educates users on available measurements, which
we hope will ultimately improve experimental design and reproducibility in the
field.
- Abstract(参考訳): 本稿では,Tensorflow Meter(TFMeter)と呼ばれるTensorflow Playgroundの拡張について述べる。
TFMeterは、ニューラルネットワークの異なるアーキテクチャを視覚的に作成できる、インタラクティブなニューラルネットワークアーキテクチャツールである。
本ツールでは,その祖先である遊び場に加えて,ネットワークの構築,トレーニング,テスト中に情報理論の測定結果を表示する。
その結果、それぞれの変更によって少なくとも1つの測定値が変更され、異なるアーキテクチャが何を学べるかのエンジニアリング直感が向上します。
この測定は文学の様々な場所から導かれる。
このデモでは、オンラインで利用可能なWebアプリケーションをhttp://tfmeter.icsi.berkeley.edu/で記述し、オリジナルのPlaygroundがニューラルネットワークに関する直観を構築することを目的としているのと同じように、当社のエクステンションは使用可能な測定についてユーザを教育する。
関連論文リスト
- FlowerFormer: Empowering Neural Architecture Encoding using a Flow-aware Graph Transformer [22.99322654701362]
本稿では,ニューラルネットワーク内に情報フローを組み込んだ強力なグラフトランスフォーマーであるFlowerFormerを紹介する。
本研究では,既存のニューラルエンコーディング法よりもFlowerFormerの方が優れていることを示す。
論文 参考訳(メタデータ) (2024-03-19T15:21:10Z) - Super Consistency of Neural Network Landscapes and Learning Rate Transfer [72.54450821671624]
我々は、失われたヘッセンのレンズを通して風景を研究する。
我々は、$mu$P のスペクトル特性がネットワークの大きさに大きく依存していることを発見した。
ニューラルタンジェントカーネル(NTK)や他のスケーリングシステムでは、シャープネスは異なるスケールで非常に異なるダイナミクスを示す。
論文 参考訳(メタデータ) (2024-02-27T12:28:01Z) - Legged Robot State Estimation With Invariant Extended Kalman Filter
Using Neural Measurement Network [2.0405494347486197]
我々は、ニューラルネットワーク(NMN)と不変拡張カルマンフィルタを統合する状態推定フレームワークを開発した。
提案手法は,既存のモデルベース状態推定器と比較して位置ドリフトを著しく低減する。
論文 参考訳(メタデータ) (2024-02-01T06:06:59Z) - Designing Deep Networks for Scene Recognition [3.493180651702109]
ネットワーク設計において広く受け入れられている原則を実証するために、広範な実験を行い、データを変更すると劇的な性能差が生じる可能性があることを実証する。
本稿では,データ指向ネットワーク設計という新しいネットワーク設計手法を提案する。
本稿では,半分未満の計算資源を用いてシーン認識性能を向上させるディープ・ナロー・ネットワークとDilated Poolingモジュールを提案する。
論文 参考訳(メタデータ) (2023-03-13T18:28:06Z) - NAR-Former: Neural Architecture Representation Learning towards Holistic
Attributes Prediction [37.357949900603295]
本稿では,属性の全体的推定に使用できるニューラルネットワーク表現モデルを提案する。
実験の結果,提案するフレームワークは,セルアーキテクチャとディープニューラルネットワーク全体の遅延特性と精度特性を予測できることがわかった。
論文 参考訳(メタデータ) (2022-11-15T10:15:21Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z) - Leveraging Sparse Linear Layers for Debuggable Deep Networks [86.94586860037049]
学習した深い特徴表現に疎い線形モデルを適用することで、よりデバッグ可能なニューラルネットワークを実現する方法を示す。
その結果、スパースな説明は、スプリアス相関を特定し、誤分類を説明し、視覚および言語タスクにおけるモデルバイアスを診断するのに役立ちます。
論文 参考訳(メタデータ) (2021-05-11T08:15:25Z) - Malicious Network Traffic Detection via Deep Learning: An Information
Theoretic View [0.0]
本研究では,ホメオモルフィズムがマルウェアのトラフィックデータセットの学習表現に与える影響について検討する。
この結果から,学習された表現の詳細と,すべてのパラメータの多様体上で定義された特定の座標系は,関数近似とは全く異なることが示唆された。
論文 参考訳(メタデータ) (2020-09-16T15:37:44Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。