論文の概要: Neural Networks Learn Distance Metrics
- arxiv url: http://arxiv.org/abs/2502.02103v1
- Date: Tue, 04 Feb 2025 08:35:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:05:58.910565
- Title: Neural Networks Learn Distance Metrics
- Title(参考訳): ニューラルネットワークは距離メトリクスを学習する
- Authors: Alan Oursland,
- Abstract要約: この研究は、ニューラルネットワーク設計における距離ベースの学習を考えることの重要性を強調している。
距離や強度の表現の学習に制約のある6つのMNISTアーキテクチャ変種を用いて実験を行う。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Neural networks may naturally favor distance-based representations, where smaller activations indicate closer proximity to learned prototypes. This contrasts with intensity-based approaches, which rely on activation magnitudes. To test this hypothesis, we conducted experiments with six MNIST architectural variants constrained to learn either distance or intensity representations. Our results reveal that the underlying representation affects model performance. We develop a novel geometric framework that explains these findings and introduce OffsetL2, a new architecture based on Mahalanobis distance equations, to further validate this framework. This work highlights the importance of considering distance-based learning in neural network design.
- Abstract(参考訳): ニューラルネットワークは自然に距離に基づく表現を好み、より小さなアクティベーションは学習されたプロトタイプに近づいたことを示す。
これは、アクティベーションのマグニチュードに依存する強度ベースのアプローチとは対照的である。
この仮説を検証するために、距離や強度の表現を学習するために制約された6つのMNISTアーキテクチャ変種を用いて実験を行った。
この結果から,モデルの性能に基礎となる表現が影響していることが判明した。
我々はこれらの発見を説明する新しい幾何学的枠組みを開発し、マハラノビス距離方程式に基づく新しいアーキテクチャであるOffsetL2を導入し、この枠組みをさらに検証する。
この研究は、ニューラルネットワーク設計における距離ベースの学習を考えることの重要性を強調している。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Interpreting Neural Networks through Mahalanobis Distance [0.0]
本稿では,ニューラルネットワークの線形層とマハラノビス距離を結合する理論的枠組みを提案する。
この研究は理論的であり、経験的データを含んでいないが、提案された距離に基づく解釈は、モデルロバスト性を高め、一般化を改善し、ニューラルネットワークの決定をより直観的な説明を提供する可能性がある。
論文 参考訳(メタデータ) (2024-10-25T07:21:44Z) - Steinmetz Neural Networks for Complex-Valued Data [23.80312814400945]
並列実値デッツワークと結合出力からなるDNNを用いて複素値データを処理する新しい手法を提案する。
提案するアーキテクチャのクラスは、Steinmetz Neural Networksと呼ばれ、多視点学習を利用して、潜在空間内でより解釈可能な表現を構築する。
提案手法は,これらのネットワークがベンチマーク・データセットや合成例で実現した改良性能と付加雑音を示す数値実験である。
論文 参考訳(メタデータ) (2024-09-16T08:26:06Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Toward Physics-Aware Deep Learning Architectures for LiDAR Intensity Simulation [4.187687891358182]
LiDAR強度は、反射レーザー信号に関する貴重な情報を提供する。
LiDARの強度を正確にシミュレーションすることは、環境中の物体の材料特性が利用できないため、依然として課題である。
U-NET a Conversaal Neural Network (CNN) と Pix2Pix a Generative Adrial Network (GAN) の2つの著名なディープラーニングアーキテクチャの比較研究を行った。
論文 参考訳(メタデータ) (2024-04-24T09:52:36Z) - Efficient and Accurate Hyperspectral Image Demosaicing with Neural Network Architectures [3.386560551295746]
本研究では,ハイパースペクトル画像復調におけるニューラルネットワークアーキテクチャの有効性について検討した。
様々なネットワークモデルと修正を導入し、それらを従来の手法や既存の参照ネットワークアプローチと比較する。
その結果、我々のネットワークは、例外的な性能を示す両方のデータセットにおいて、参照モデルよりも優れるか、一致していることがわかった。
論文 参考訳(メタデータ) (2023-12-21T08:02:49Z) - Quasi-orthogonality and intrinsic dimensions as measures of learning and
generalisation [55.80128181112308]
ニューラルネットワークの特徴空間の次元性と準直交性は、ネットワークの性能差別と共同して機能する可能性があることを示す。
本研究は, ネットワークの最終的な性能と, ランダムに初期化された特徴空間の特性との関係を示唆する。
論文 参考訳(メタデータ) (2022-03-30T21:47:32Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - Faster-LTN: a neuro-symbolic, end-to-end object detection architecture [6.262658726461965]
本稿では,畳み込みバックボーンとLTNからなる物体検出器であるFaster-LTNを提案する。
このアーキテクチャは、ラベル付き例と事前知識を組み合わせた基礎理論を最適化することで訓練される。
実験的な比較では、従来のFaster R-CNNアーキテクチャと競合する性能を示している。
論文 参考訳(メタデータ) (2021-07-05T09:09:20Z) - Self-Learning for Received Signal Strength Map Reconstruction with
Neural Architecture Search [63.39818029362661]
ニューラルアーキテクチャサーチ(NAS)と受信信号強度(RSS)マップ再構築のための自己学習に基づくモデルを提案する。
このアプローチは、まず最適なNNアーキテクチャを見つけ、与えられた(RSS)マップの地上実測値に対して同時に推論モデルを訓練する。
実験結果から,この第2モデルの信号予測は,非学習に基づく最先端技術や,アーキテクチャ探索を伴わないNNモデルよりも優れていた。
論文 参考訳(メタデータ) (2021-05-17T12:19:22Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。