論文の概要: Hadaptive-Net: Efficient Vision Models via Adaptive Cross-Hadamard Synergy
- arxiv url: http://arxiv.org/abs/2505.22226v1
- Date: Wed, 28 May 2025 10:58:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.560222
- Title: Hadaptive-Net: Efficient Vision Models via Adaptive Cross-Hadamard Synergy
- Title(参考訳): Hadaptive-Net:Adaptive Cross-Hadamard Synergyによる効率的な視覚モデル
- Authors: Xuyang Zhang, Xi Zhang, Liang Chen, Hao Shi, Qingshan Guo,
- Abstract要約: 我々はまず,チャネル間相互作用とチャネル拡張における標準的な畳み込み操作よりも,アダマール積の利点を分析し,同定する。
適応型クロスアダマール (Adaptive Cross-Hadamard, ACH) は, 適応型クロスチャネルアダマール製品を用いて高次元チャネル展開を行う。
- 参考スコア(独自算出の注目度): 13.223035378430522
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have revealed the immense potential of Hadamard product in enhancing network representational capacity and dimensional compression. However, despite its theoretical promise, this technique has not been systematically explored or effectively applied in practice, leaving its full capabilities underdeveloped. In this work, we first analyze and identify the advantages of Hadamard product over standard convolutional operations in cross-channel interaction and channel expansion. Building upon these insights, we propose a computationally efficient module: Adaptive Cross-Hadamard (ACH), which leverages adaptive cross-channel Hadamard products for high-dimensional channel expansion. Furthermore, we introduce Hadaptive-Net (Hadamard Adaptive Network), a lightweight network backbone for visual tasks, which is demonstrated through experiments that it achieves an unprecedented balance between inference speed and accuracy through our proposed module.
- Abstract(参考訳): 近年の研究では、ネットワーク表現能力と次元圧縮を向上する上で、アダマール積が持つ大きな可能性を明らかにしている。
しかし、その理論的な約束にもかかわらず、この技術は体系的に研究されるか、実際に効果的に適用されておらず、完全な能力は未発達のままである。
本研究では,チャネル間相互作用およびチャネル拡張における標準畳み込み操作よりも,アダマール積の利点をまず分析し,同定する。
適応型クロスアダマール (Adaptive Cross-Hadamard, ACH) は, 適応型クロスチャネルアダマール製品を用いて高次元チャネル展開を行う。
さらに,視覚タスクのための軽量ネットワークバックボーンであるHadaptive-Net(Hadamard Adaptive Network)を導入する。
関連論文リスト
- Channel Fingerprint Construction for Massive MIMO: A Deep Conditional Generative Approach [65.47969413708344]
CF双生児の概念を導入し、条件付き生成拡散モデル(CGDM)を設計する。
本研究では, 粗粒CFに条件付き観測された細粒CFの対数分布に対するエビデンスローバウンド(ELBO)を導出するために, 変分推論手法を用いる。
提案手法は, ベースラインと比較して, 復元性能が著しく向上していることを示す。
論文 参考訳(メタデータ) (2025-05-12T01:36:06Z) - Model-driven deep neural network for enhanced direction finding with commodity 5G gNodeB [30.94668439883861]
現在の無線ネットワークは位置決め機能を実現するために純粋なモデル駆動技術に大きく依存している。
ここでは、空間スペクトルの画像回復タスクとして、方向探索または角度推定(AoA)問題を再構成する。
提案するMoD-DNNフレームワークは,有効スペクトルキャリブレーションと精度の高いAoA推定を可能にする。
論文 参考訳(メタデータ) (2024-12-14T02:09:36Z) - KANDU-Net:A Dual-Channel U-Net with KAN for Medical Image Segmentation [0.0]
本稿では,kanネットワークとU-Netを統合した新しいアーキテクチャを提案する。
局所的特徴と大域的特徴の両方をより効果的に捉えることが可能なカン畳み込み二重チャネル構造を提案する。
複数のデータセットにまたがる実験により、我々のモデルは精度で良好に動作していることが示された。
論文 参考訳(メタデータ) (2024-09-30T15:41:51Z) - U-KAN Makes Strong Backbone for Medical Image Segmentation and Generation [48.40120035775506]
Kolmogorov-Arnold Networks (KAN)は、非線形学習可能なアクティベーション関数のスタックを通じてニューラルネットワーク学習を再構築する。
トークン化中間表現であるU-KAN上に専用kan層を統合することにより,確立したU-Netパイプラインを検証,修正,再設計する。
さらに、拡散モデルにおける代替U-Netノイズ予測器としてのU-KANの可能性を探り、タスク指向モデルアーキテクチャの生成にその適用性を実証した。
論文 参考訳(メタデータ) (2024-06-05T04:13:03Z) - Unleashing Network Potentials for Semantic Scene Completion [50.95486458217653]
本稿では,新しいSSCフレームワーク - Adrial Modality Modulation Network (AMMNet)を提案する。
AMMNetは、モダリティ間の勾配流の相互依存性を可能にするクロスモーダル変調と、動的勾配競争を利用するカスタマイズされた逆トレーニングスキームの2つのコアモジュールを導入している。
AMMNetは最先端のSSC法よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2024-03-12T11:48:49Z) - Improving Transferability of Adversarial Examples via Bayesian Attacks [84.90830931076901]
モデル入力にベイズ定式化を組み込むことにより,モデル入力とモデルパラメータの共分散を可能にする新しい拡張を導入する。
提案手法は,トランスファーベース攻撃に対する新たな最先端技術を実現し,ImageNetとCIFAR-10の平均成功率をそれぞれ19.14%,2.08%向上させる。
論文 参考訳(メタデータ) (2023-07-21T03:43:07Z) - A Generic Shared Attention Mechanism for Various Backbone Neural Networks [53.36677373145012]
自己注意モジュール(SAM)は、異なる層にまたがる強い相関した注意マップを生成する。
Dense-and-Implicit Attention (DIA)はSAMをレイヤ間で共有し、長期間のメモリモジュールを使用する。
我々のシンプルで効果的なDIAは、様々なネットワークバックボーンを一貫して拡張できます。
論文 参考訳(メタデータ) (2022-10-27T13:24:08Z) - Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution [64.25751738088015]
トランスフォーマーに基づく手法は、単一画像超解像(SISR)タスクにおいて顕著な性能を示した。
動的に特徴を抽出するために文脈情報を組み込む必要がある変換器は無視される。
我々は,CNNとTransformerを混合したCTブロックのカスケードで構成される,軽量なクロスレセプティブ・フォーカスド・推論・ネットワーク(CFIN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T16:32:29Z) - Conceptor Learning for Class Activation Mapping [21.659679316108967]
クラスアクティベーションマッピング(CAM)は、サリエンシマップを生成するために広く採用されている。
本稿では,CAM生成における概念学習について紹介する。
コンセプター・CAMの有効性は、文学における最大規模のデータセットに関する形式的検証と実験の両方で検証されている。
論文 参考訳(メタデータ) (2022-01-21T10:51:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。