論文の概要: Semi-Tensor-Product Based Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2506.10407v1
- Date: Thu, 12 Jun 2025 07:00:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.616572
- Title: Semi-Tensor-Product Based Convolutional Neural Networks
- Title(参考訳): 半テンソル生成に基づく畳み込みニューラルネットワーク
- Authors: Daizhan Cheng,
- Abstract要約: 本稿ではドメインベースの畳み込み生成物(CP)を提案する。
ゼロまたはその他のパディングがないため、パディングによって引き起こされるジャンク情報を回避することができる。
これを用いて、畳み込みベースのニューラルネットワーク(CNN)を開発する。
- 参考スコア(独自算出の注目度): 1.9580473532948401
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The semi-tensor product (STP) of vectors is a generalization of conventional inner product of vectors, which allows the factor vectors to of different dimensions. This paper proposes a domain-based convolutional product (CP). Combining domain-based CP with STP of vectors, a new CP is proposed. Since there is no zero or any other padding, it can avoid the junk information caused by padding. Using it, the STP-based convolutional neural network (CNN) is developed. Its application to image and third order signal identifications is considered.
- Abstract(参考訳): ベクトルの半テンソル積(英: semi-tensor product、STP)は、ベクトルの通常の内積の一般化であり、因子ベクトルを異なる次元にすることができる。
本稿ではドメインベースの畳み込み生成物(CP)を提案する。
ドメインベースのCPとベクトルのSTPを組み合わせることで、新しいCPを提案する。
ゼロまたはその他のパディングがないため、パディングによって引き起こされるジャンク情報を避けることができる。
これを用いて、STPベースの畳み込みニューラルネットワーク(CNN)を開発した。
画像および第3次信号識別への応用について考察する。
関連論文リスト
- Multi-Scale Node Embeddings for Graph Modeling and Generation [0.0]
ノード埋め込みアルゴリズムはグラフを入力として取り、その構造を幾何学空間内のノードを表す出力ベクトルにエンコードする。
関係のない2つの制限がこれらのアルゴリズムに影響を及ぼす。
本稿では,ブロックノードの埋め込みベクトルと,その構成ノードの埋め込みベクトルの和との統計的整合性を保証するマルチスケールノード埋め込み法を定義する。
論文 参考訳(メタデータ) (2024-12-05T17:12:45Z) - An Intrinsic Vector Heat Network [64.55434397799728]
本稿では,3次元に埋め込まれた接ベクトル場を学習するためのニューラルネットワークアーキテクチャを提案する。
本研究では, ベクトル値の特徴データを空間的に伝播させるために, トレーニング可能なベクトル熱拡散モジュールを提案する。
また,四面体メッシュ生成の産業的有用性に対する本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-06-14T00:40:31Z) - From Complexity to Clarity: Analytical Expressions of Deep Neural Network Weights via Clifford's Geometric Algebra and Convexity [54.01594785269913]
我々は,標準正規化損失のトレーニングにおいて,深部ReLUニューラルネットワークの最適重みがトレーニングサンプルのウェッジ積によって与えられることを示した。
トレーニング問題は、トレーニングデータセットの幾何学的構造をエンコードするウェッジ製品機能よりも凸最適化に還元される。
論文 参考訳(メタデータ) (2023-09-28T15:19:30Z) - Forward Composition Propagation for Explainable Neural Reasoning [3.4123736336071864]
本稿では,階層型分類問題に対するフィードフォワードニューラルネットワークの予測について説明するアルゴリズムを提案する。
提案したFCPアルゴリズムでは、各ニューロンは、そのニューロンにおける各問題の特徴の役割を示す合成ベクトルによって記述される。
本稿では, 基底真理が知られている公平問題において, バイアス検出に関するケーススタディを開発する。
論文 参考訳(メタデータ) (2021-12-23T17:10:11Z) - Pseudo-Euclidean Attract-Repel Embeddings for Undirected Graphs [73.0261182389643]
ドット積埋め込みはグラフをとり、2つのベクトル間のドット積がエッジの強さを与えるようなノードのベクトルを構成する。
ノードを擬ユークリッド空間に埋め込むことにより、推移性仮定を除去する。
Pseudo-Euclidean 埋め込みはネットワークを効率よく圧縮でき、近接する隣人の複数の概念をそれぞれ独自の解釈で解釈でき、既存のモデルに'スロットできる。
論文 参考訳(メタデータ) (2021-06-17T17:23:56Z) - Shape-Tailored Deep Neural Networks [87.55487474723994]
ST-DNN(Shape-Tailored Deep Neural Networks)の紹介
ST-DNNは、固定形状(正方形)の近傍からデータを集約する畳み込みネットワーク(CNN)を拡張し、任意形状の領域で定義された記述子を計算する。
ST-DNNが3〜4桁小さく、CNNがセグメンテーションに使用されることを示しています。
論文 参考訳(メタデータ) (2021-02-16T23:32:14Z) - Variable Binding for Sparse Distributed Representations: Theory and
Applications [4.150085009901543]
記号推論とニューラルネットワークは、しばしば互換性のないアプローチとみなされる。ベクトル記号アーキテクチャ(VSAs)として知られるコネクショナリストモデルは、このギャップを埋める可能性がある。
VSAsは密度の高い擬似ランダムベクターでシンボルを符号化し、そこで情報はニューロン全体にわたって分散される。
VSAsにおける高密度ベクトル間の変数結合は、次元性を高める演算であるスパースベクトル間のテンソル積結合と数学的に等価であることを示す。
論文 参考訳(メタデータ) (2020-09-14T20:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。