論文の概要: IAE-Net: Integral Autoencoders for Discretization-Invariant Learning
- arxiv url: http://arxiv.org/abs/2203.05142v1
- Date: Thu, 10 Mar 2022 03:36:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-11 15:29:16.308131
- Title: IAE-Net: Integral Autoencoders for Discretization-Invariant Learning
- Title(参考訳): IAE-Net:離散化不変学習のための積分オートエンコーダ
- Authors: Yong Zheng Ong and Zuowei Shen and Haizhao Yang
- Abstract要約: 本稿では、離散化不変学習のための積分オートエンコーダ(IAE-Net)に基づく新しいディープラーニングフレームワークを提案する。
IAE-Netは、予測データ科学、科学計算における前方および逆問題、信号/画像処理における様々な応用でテストされている。
- 参考スコア(独自算出の注目度): 3.8243923744440935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discretization invariant learning aims at learning in the
infinite-dimensional function spaces with the capacity to process heterogeneous
discrete representations of functions as inputs and/or outputs of a learning
model. This paper proposes a novel deep learning framework based on integral
autoencoders (IAE-Net) for discretization invariant learning. The basic
building block of IAE-Net consists of an encoder and a decoder as integral
transforms with data-driven kernels, and a fully connected neural network
between the encoder and decoder. This basic building block is applied in
parallel in a wide multi-channel structure, which are repeatedly composed to
form a deep and densely connected neural network with skip connections as
IAE-Net. IAE-Net is trained with randomized data augmentation that generates
training data with heterogeneous structures to facilitate the performance of
discretization invariant learning. The proposed IAE-Net is tested with various
applications in predictive data science, solving forward and inverse problems
in scientific computing, and signal/image processing. Compared with
alternatives in the literature, IAE-Net achieves state-of-the-art performance
in existing applications and creates a wide range of new applications.
- Abstract(参考訳): 離散化不変学習は、学習モデルの入力や出力として関数の不均一な離散表現を処理する能力を持つ無限次元関数空間での学習を目標とする。
本稿では,離散化不変学習のための積分オートエンコーダ(iae-net)に基づく新しいディープラーニングフレームワークを提案する。
iae-netの基本構成ブロックは、データ駆動カーネルとの積分変換としてのエンコーダとデコーダと、エンコーダとデコーダの間の完全に接続されたニューラルネットワークで構成される。
この基本構築ブロックは、スキップ接続をiae-netとして深く密結合したニューラルネットワークを形成するために繰り返し構成される、広いマルチチャネル構造に並列に適用される。
IAE-Netは、不均一な構造を持つトレーニングデータを生成するランダム化データ拡張を用いて訓練され、離散化不変学習のパフォーマンスが向上する。
提案したIAE-Netは、予測データ科学、科学計算における前方および逆問題、信号/画像処理における様々な応用でテストされている。
IAE-Netは文献の代替品と比較して、既存のアプリケーションで最先端のパフォーマンスを達成し、幅広い新しいアプリケーションを作成する。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Unified Generation, Reconstruction, and Representation: Generalized Diffusion with Adaptive Latent Encoding-Decoding [90.77521413857448]
深層生成モデルは,3つのコア機能 – 新たなインスタンスの生成,入力の再構築,コンパクト表現の学習 – に固定されている。
一般化逆変換拡散確率モデル(EDDPM)を導入する。
EDDPMはパラメタライズされた符号化復号を導入することで標準拡散におけるガウス雑音化を一般化する。
テキスト、タンパク質、画像の実験は、多様なデータやタスクを扱う柔軟性を示している。
論文 参考訳(メタデータ) (2024-02-29T10:08:57Z) - Dynamic Encoding and Decoding of Information for Split Learning in
Mobile-Edge Computing: Leveraging Information Bottleneck Theory [1.1151919978983582]
Split Learning(スプリットラーニング)は、MLモデルを2つの部分(エンコーダとデコーダ)に分割する、プライバシ保護の分散学習パラダイムである。
モバイルエッジコンピューティングでは、エンコーダがユーザ機器(UE)に、デコーダがエッジネットワークに、分割学習によってネットワーク機能を訓練することができる。
本稿では,送信リソース消費の動的バランスと,共有潜在表現の情報化を両立させるためのフレームワークとトレーニング機構を提案する。
論文 参考訳(メタデータ) (2023-09-06T07:04:37Z) - Variational Autoencoding Neural Operators [17.812064311297117]
関数型データによる教師なし学習は、コンピュータビジョン、気候モデリング、物理システムへの応用を含む機械学習研究の新たなパラダイムである。
本稿では,大規模な演算子学習アーキテクチャを変分オートエンコーダとして機能させる汎用戦略として,変分オートエンコードニューラル演算子(VANO)を提案する。
論文 参考訳(メタデータ) (2023-02-20T22:34:43Z) - LENet: Lightweight And Efficient LiDAR Semantic Segmentation Using
Multi-Scale Convolution Attention [0.0]
本稿では,LDARに基づくセマンティックセマンティックセマンティクスのためのエンコーダデコーダ構造を持つLENetと呼ばれるプロジェクションベースのセマンティクスセマンティクスセマンティクスネットワークを提案する。
エンコーダは、特徴を捉えるために、様々な受信フィールドサイズを持つ新しいマルチスケール・コンボリューション・アテンション(MSCA)モジュールで構成されている。
提案手法は, 最先端のセマンティックセグメンテーション法と比較して, 軽量で, 効率的で, 堅牢であることを示す。
論文 参考訳(メタデータ) (2023-01-11T02:51:38Z) - Biologically Plausible Learning on Neuromorphic Hardware Architectures [27.138481022472]
ニューロモルフィックコンピューティング(Neuromorphic Computing)は、アナログメモリの計算によってこの不均衡に直面している新興パラダイムである。
この研究は、異なる学習アルゴリズムがCompute-In-Memoryベースのハードウェアに与える影響を初めて比較し、その逆も行った。
論文 参考訳(メタデータ) (2022-12-29T15:10:59Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - Spatial Dependency Networks: Neural Layers for Improved Generative Image
Modeling [79.15521784128102]
画像生成装置(デコーダ)を構築するための新しいニューラルネットワークを導入し、可変オートエンコーダ(VAE)に適用する。
空間依存ネットワーク(sdns)では、ディープニューラルネットの各レベルにおける特徴マップを空間的にコヒーレントな方法で計算する。
空間依存層による階層型vaeのデコーダの強化は密度推定を大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-03-16T07:01:08Z) - MetaSDF: Meta-learning Signed Distance Functions [85.81290552559817]
ニューラルな暗示表現で形状を一般化することは、各関数空間上の学習先行値に比例する。
形状空間の学習をメタラーニング問題として定式化し、勾配に基づくメタラーニングアルゴリズムを利用してこの課題を解決する。
論文 参考訳(メタデータ) (2020-06-17T05:14:53Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。