論文の概要: Fully complex-valued deep learning model for visual perception
- arxiv url: http://arxiv.org/abs/2212.07146v1
- Date: Wed, 14 Dec 2022 10:40:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 15:01:24.543220
- Title: Fully complex-valued deep learning model for visual perception
- Title(参考訳): 視覚知覚のための完全複素値深層学習モデル
- Authors: Aniruddh Sikdar, Sumanth Udupa, Suresh Sundaram
- Abstract要約: 本稿では、複雑な領域で完全に動作させることにより、複素数値モデル全体の性能が向上することを提案する。
完全複素数値畳み込みニューラルネットワークを学習するために, 完全複素数値学習方式を提案する。
FC-CNNは訓練効率が向上し、他の全てのモデルよりもはるかに高速に収束する。
- 参考スコア(独自算出の注目度): 4.438928487047433
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep learning models operating in the complex domain are used due to their
rich representation capacity. However, most of these models are either
restricted to the first quadrant of the complex plane or project the
complex-valued data into the real domain, causing a loss of information. This
paper proposes that operating entirely in the complex domain increases the
overall performance of complex-valued models. A novel, fully complex-valued
learning scheme is proposed to train a Fully Complex-valued Convolutional
Neural Network (FC-CNN) using a newly proposed complex-valued loss function and
training strategy. Benchmarked on CIFAR-10, SVHN, and CIFAR-100, FC-CNN has a
4-10% gain compared to its real-valued counterpart, maintaining the model
complexity. With fewer parameters, it achieves comparable performance to
state-of-the-art complex-valued models on CIFAR-10 and SVHN. For the CIFAR-100
dataset, it achieves state-of-the-art performance with 25% fewer parameters.
FC-CNN shows better training efficiency and much faster convergence than all
the other models.
- Abstract(参考訳): 複雑なドメインで動作するディープラーニングモデルは、豊かな表現能力のために使用される。
しかし、これらのモデルのほとんどは複素平面の最初の四分数に制限されているか、複素数値データを実領域に投影しているため、情報が失われる。
本稿では, 複素領域で操作することで, 複素値モデル全体の性能が向上することを示す。
新たに提案する複素値損失関数と学習戦略を用いて,完全複素値畳み込みニューラルネットワーク(fc-cnn)を学習するための,新しい複素値学習手法を提案する。
CIFAR-10、SVHN、CIFAR-100でベンチマークされたFC-CNNは、実際の評価値と比較して4-10%上昇し、モデルの複雑さを維持している。
パラメータが少ないため、CIFAR-10とSVHNの最先端の複素数値モデルに匹敵する性能が得られる。
CIFAR-100データセットでは、25%少ないパラメータで最先端のパフォーマンスを達成する。
FC-CNNは訓練効率が向上し、他の全てのモデルよりもはるかに高速に収束する。
関連論文リスト
- Any Image Restoration with Efficient Automatic Degradation Adaptation [132.81912195537433]
本研究は, 各種劣化の相似性を有効かつ包括的修復に活用し, 共同埋設を実現する統一的な方法を提案する。
我々のネットワークは、モデルの複雑さをトレーニング可能なパラメータで約82%、FLOPで約85%削減しつつ、新しいSOTAレコードを設定している。
論文 参考訳(メタデータ) (2024-07-18T10:26:53Z) - CoNO: Complex Neural Operator for Continuous Dynamical Systems [10.326780211731263]
複素分数フーリエ領域の積分核をパラメータ化する複素ニューラル演算子(CoNO)を導入する。
このモデルは, 1つの複素分数フーリエ変換を用いて, 基礎となる偏微分方程式を効果的に捕捉することを示す。
論文 参考訳(メタデータ) (2023-10-03T14:38:12Z) - Autoselection of the Ensemble of Convolutional Neural Networks with
Second-Order Cone Programming [0.8029049649310213]
本研究では,畳み込みニューラルネットワーク(CNN)のアンサンブルを推定する数学的モデルを提案する。
提案手法は, CIFAR-10, CIFAR-100 および MNIST データセットで検証される。
論文 参考訳(メタデータ) (2023-02-12T16:18:06Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Fully Complex-valued Fully Convolutional Multi-feature Fusion Network
(FC2MFN) for Building Segmentation of InSAR images [7.3045725197814875]
本稿では,InSAR画像上にセマンティックセグメンテーションを構築するための完全複素数値完全畳み込み多機能融合ネットワーク(FC2MFN)を提案する。
複素数値化InSARデータの特異性については、その大きさと位相を考慮した複素数を比較するための新しい複素数値化プーリング層が提案されている。
FC2MFNは、セグメンテーション性能とモデル複雑さの観点から、他の最先端手法と比較して、より良い結果が得られる。
論文 参考訳(メタデータ) (2022-12-14T08:17:39Z) - Directed Acyclic Graph Factorization Machines for CTR Prediction via
Knowledge Distillation [65.62538699160085]
本稿では,既存の複雑な相互作用モデルから,知識蒸留によるCTR予測のための高次特徴相互作用を学習するための非巡回グラフファクトリゼーションマシン(KD-DAGFM)を提案する。
KD-DAGFMは、オンラインとオフラインの両方の実験において、最先端のFLOPの21.5%未満で最高の性能を達成する。
論文 参考訳(メタデータ) (2022-11-21T03:09:42Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Efficient Adaptive Ensembling for Image Classification [3.7241274058257092]
本稿では,複雑性を増大させることなく画像分類性能を向上させる新しい手法を提案する。
データの不整合部分集合に基づいて2つの効率的なNet-b0のエンドツーエンドモデルを訓練した。
精度で平均0.5$%の精度で最先端の技術を上回りました。
論文 参考訳(メタデータ) (2022-06-15T08:55:47Z) - Adversarial Audio Synthesis with Complex-valued Polynomial Networks [60.231877895663956]
音声における時間周波数(TF)表現は、実数値ネットワークとしてますますモデル化されている。
我々は,このような複雑な数値表現を自然な方法で統合するAPOLLOと呼ばれる複雑な数値ネットワークを導入する。
APOLLOは、音声生成におけるSC09の最先端拡散モデルよりも17.5%$改善され、8.2%ドルとなる。
論文 参考訳(メタデータ) (2022-06-14T12:58:59Z) - High-Capacity Complex Convolutional Neural Networks For I/Q Modulation
Classification [0.0]
複素数値畳み込みを計算するための残差および/または高密度接続を含む高容量アーキテクチャを実現することで、技術性能の状態を主張する。
I/Q変調分類のための複雑な畳み込みを伴う全ネットワークにおいて統計的に有意な改善を示す。
論文 参考訳(メタデータ) (2020-10-21T02:26:24Z) - Revealing the Invisible with Model and Data Shrinking for
Composite-database Micro-expression Recognition [49.463864096615254]
入力複雑性とモデル複雑性を含む学習複雑性の影響を分析する。
より浅層構造と低分解能入力データを探索する再帰畳み込みネットワーク(RCN)を提案する。
学習可能なパラメータを増やさなくてもRCNと統合できる3つのパラメータフリーモジュールを開発した。
論文 参考訳(メタデータ) (2020-06-17T06:19:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。