論文の概要: KHNNs: hypercomplex neural networks computations via Keras using TensorFlow and PyTorch
- arxiv url: http://arxiv.org/abs/2407.00452v1
- Date: Sat, 29 Jun 2024 14:36:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 03:06:00.798522
- Title: KHNNs: hypercomplex neural networks computations via Keras using TensorFlow and PyTorch
- Title(参考訳): KHNN:TensorFlowとPyTorchを用いたKerasによる超複雑ニューラルネットワーク計算
- Authors: Agnieszka Niemczynowicz, Radosław Antoni Kycia,
- Abstract要約: 本稿では,DenseとPyTorch内で計算を行うKerasと統合したライブラリアプリケーションを提案する。
DenseとConvolutional 1D、2D、3Dレイヤアーキテクチャを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks used in computations with more advanced algebras than real numbers perform better in some applications. However, there is no general framework for constructing hypercomplex neural networks. We propose a library integrated with Keras that can do computations within TensorFlow and PyTorch. It provides Dense and Convolutional 1D, 2D, and 3D layers architectures.
- Abstract(参考訳): 実数よりも高度な代数を持つ計算で使用されるニューラルネットワークは、いくつかのアプリケーションでより良い性能を発揮する。
しかし、超複雑ニューラルネットワークを構築するための一般的なフレームワークは存在しない。
我々は、TensorFlowとPyTorch内で計算ができるKerasと統合されたライブラリを提案する。
DenseとConvolutional 1D、2D、3Dレイヤアーキテクチャを提供する。
関連論文リスト
- RoseNNa: A performant, portable library for neural network inference
with application to computational fluid dynamics [0.0]
本稿では,ニューラルネットワーク推論とCFDのギャップを埋めるRoseNNaライブラリを提案する。
RoseNNaは、ニューラルネットワーク推論のための非侵襲的で軽量(1000行)ツールである。
論文 参考訳(メタデータ) (2023-07-30T21:11:55Z) - SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - Fast Finite Width Neural Tangent Kernel [47.57136433797996]
ニューラルネットワークのJacobianは、ディープラーニングの研究の中心的な対象として登場した。
有限幅NTKは計算に費用がかかることで有名である。
有限幅NTKの計算およびメモリ要求の指数を変化させる2つの新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-17T12:18:22Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Vector Neurons: A General Framework for SO(3)-Equivariant Networks [32.81671803104126]
本稿では,ベクトルニューロン表現(Vector Neuron representations)をベースとした汎用フレームワークを提案する。
我々のベクトルニューロンは、SO(3) の作用を潜在空間へ簡単にマッピングできる。
また、回転等変性再構成ネットワークを初めて示しました。
論文 参考訳(メタデータ) (2021-04-25T18:48:15Z) - TensorX: Extensible API for Neural Network Model Design and Deployment [0.0]
TensorFlowXは、計算における複雑なニューラルネットワークモデルのプロトタイピング、設計、デプロイのためのPythonライブラリである。
使いやすさ、パフォーマンス、APIの一貫性に特に重点を置いています。
論文 参考訳(メタデータ) (2020-12-29T00:15:38Z) - Deep Polynomial Neural Networks [77.70761658507507]
$Pi$Netsは拡張に基づいた関数近似の新しいクラスである。
$Pi$Netsは、画像生成、顔検証、および3Dメッシュ表現学習という3つの困難なタスクで、最先端の結果を生成する。
論文 参考訳(メタデータ) (2020-06-20T16:23:32Z) - Deep Learning in Memristive Nanowire Networks [0.0]
MN3(Memristive Nanowire Neural Network)と呼ばれる新しいハードウェアアーキテクチャは、非常に広くスパースなニューラルネットワーク層をシミュレートするための効率的なアーキテクチャとして最近紹介された。
我々は,MN3が合成,勾配伝搬,重み更新を行うことができることを示す。
論文 参考訳(メタデータ) (2020-03-03T20:11:33Z) - On the distance between two neural networks and the stability of
learning [59.62047284234815]
本稿では, パラメータ距離と勾配分解を, 幅広い非線形構成関数のクラスに関連付ける。
この分析により、ニューラルネットワークの深い相対信頼と降下補題と呼ばれる新しい距離関数が導かれる。
論文 参考訳(メタデータ) (2020-02-09T19:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。