論文の概要: Complexity of Representations in Deep Learning
- arxiv url: http://arxiv.org/abs/2209.00525v1
- Date: Thu, 1 Sep 2022 15:20:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 13:25:32.673620
- Title: Complexity of Representations in Deep Learning
- Title(参考訳): 深層学習における表現の複雑さ
- Authors: Tin Kam Ho
- Abstract要約: データ複雑性の観点からクラスを分離する際の学習表現の有効性を分析する。
データ複雑性がネットワークを通じてどのように進化するか、トレーニング中にどのように変化するのか、そして、ネットワーク設計とトレーニングサンプルの可用性によってどのように影響を受けるのかを示す。
- 参考スコア(独自算出の注目度): 2.0219767626075438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks use multiple layers of functions to map an object
represented by an input vector progressively to different representations, and
with sufficient training, eventually to a single score for each class that is
the output of the final decision function. Ideally, in this output space, the
objects of different classes achieve maximum separation. Motivated by the need
to better understand the inner working of a deep neural network, we analyze the
effectiveness of the learned representations in separating the classes from a
data complexity perspective. Using a simple complexity measure, a popular
benchmarking task, and a well-known architecture design, we show how the data
complexity evolves through the network, how it changes during training, and how
it is impacted by the network design and the availability of training samples.
We discuss the implications of the observations and the potentials for further
studies.
- Abstract(参考訳): ディープニューラルネットワークは、複数の関数層を使用して、入力ベクトルで表されるオブジェクトを、異なる表現に段階的にマッピングし、十分なトレーニングで、最終的な決定関数の出力である各クラスの単一のスコアにマッピングする。
理想的には、この出力空間において、異なるクラスのオブジェクトは最大分離を達成する。
深層ニューラルネットワークの内部動作をよりよく理解する必要性から、データ複雑性の観点からクラスを分離する際の学習された表現の有効性を分析する。
単純な複雑性尺度、一般的なベンチマークタスク、よく知られたアーキテクチャ設計を用いて、データ複雑性がネットワークを通してどのように進化するか、トレーニング中にどのように変化するのか、そしてそれがネットワーク設計やトレーニングサンプルの可用性にどのように影響するかを示す。
我々は,観測の意義と今後の研究の可能性について議論する。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - When Representations Align: Universality in Representation Learning Dynamics [8.188549368578704]
我々は、入力から隠れ表現への符号化マップと、表現から出力への復号マップが任意の滑らかな関数であるという仮定の下で、表現学習の効果的な理論を導出する。
実験により,活性化関数とアーキテクチャの異なる深層ネットワークにおける表現学習力学の側面を効果的に記述することを示した。
論文 参考訳(メタデータ) (2024-02-14T12:48:17Z) - On Characterizing the Evolution of Embedding Space of Neural Networks
using Algebraic Topology [9.537910170141467]
特徴埋め込み空間のトポロジがベッチ数を介してよく訓練されたディープニューラルネットワーク(DNN)の層を通過するとき、どのように変化するかを検討する。
深度が増加するにつれて、トポロジカルに複雑なデータセットが単純なデータセットに変換され、ベッチ数はその最小値に達することが示される。
論文 参考訳(メタデータ) (2023-11-08T10:45:12Z) - Visual Analytics of Multivariate Networks with Representation Learning and Composite Variable Construction [19.265502727154473]
本稿では,多変量ネットワーク研究のための視覚解析ワークフローを提案する。
それは、データを分類するニューラルネットワークベースの学習フェーズ、次元の削減と最適化フェーズ、ユーザが実行する解釈フェーズで構成される。
ニューラルネットワークから得られる非線形特徴を直感的に解釈できる線形特徴にモデル化する複合変数構築ステップが,我々の設計の鍵となる。
論文 参考訳(メタデータ) (2023-03-16T18:31:18Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Network Comparison Study of Deep Activation Feature Discriminability
with Novel Objects [0.5076419064097732]
最先端のコンピュータビジョンアルゴリズムは、Deep Neural Networks(DNN)を特徴抽出に取り入れ、Deep Convolutional Activation Features(DeCAF)を作成する。
本研究では、6つの主要な視覚認識DNNアーキテクチャのDeCAF空間に符号化された新しい物体の視覚的外観の一般的な識別可能性について分析する。
論文 参考訳(メタデータ) (2022-02-08T07:40:53Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Neural networks adapting to datasets: learning network size and topology [77.34726150561087]
ニューラルネットワークは、勾配に基づくトレーニングの過程で、そのサイズとトポロジの両方を学習できるフレキシブルなセットアップを導入します。
結果として得られるネットワークは、特定の学習タスクとデータセットに合わせたグラフの構造を持つ。
論文 参考訳(メタデータ) (2020-06-22T12:46:44Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。