論文の概要: DeConFuse : A Deep Convolutional Transform based Unsupervised Fusion
Framework
- arxiv url: http://arxiv.org/abs/2011.04337v1
- Date: Mon, 9 Nov 2020 11:04:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 01:44:46.430028
- Title: DeConFuse : A Deep Convolutional Transform based Unsupervised Fusion
Framework
- Title(参考訳): DeConFuse : 深層畳み込み変換に基づく教師なし核融合フレームワーク
- Authors: Pooja Gupta, Jyoti Maggu, Angshul Majumdar, Emilie Chouzenoux,
Giovanni Chierchia
- Abstract要約: 本研究では、深層畳み込み変換学習に基づく教師なし融合フレームワークを提案する。
ストック予測とトレーディングの問題に対して,提案手法であるDeConFuseを適用した。
- 参考スコア(独自算出の注目度): 29.58965424136611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work proposes an unsupervised fusion framework based on deep
convolutional transform learning. The great learning ability of convolutional
filters for data analysis is well acknowledged. The success of convolutive
features owes to convolutional neural network (CNN). However, CNN cannot
perform learning tasks in an unsupervised fashion. In a recent work, we show
that such shortcoming can be addressed by adopting a convolutional transform
learning (CTL) approach, where convolutional filters are learnt in an
unsupervised fashion. The present paper aims at (i) proposing a deep version of
CTL; (ii) proposing an unsupervised fusion formulation taking advantage of the
proposed deep CTL representation; (iii) developing a mathematically sounded
optimization strategy for performing the learning task. We apply the proposed
technique, named DeConFuse, on the problem of stock forecasting and trading.
Comparison with state-of-the-art methods (based on CNN and long short-term
memory network) shows the superiority of our method for performing a reliable
feature extraction.
- Abstract(参考訳): 本稿では,深い畳み込み変換学習に基づく教師なし融合フレームワークを提案する。
データ解析のための畳み込みフィルタの優れた学習能力が認められている。
畳み込み機能の成功は、畳み込みニューラルネットワーク(CNN)によるものである。
しかし、CNNは教師なしの方法で学習タスクを実行することはできない。
最近の研究では、畳み込みフィルタを教師なしの方法で学習する畳み込み変換学習(ctl)アプローチを採用することで、このような欠点に対処できることを示した。
本稿の目的は
i) CTLのより深いバージョンを提案すること
(ii)提案されている深層ctl表現を利用した教師なし核融合製剤の提案
(iii)学習タスクを実行するための数学的に健全な最適化戦略の開発。
ストック予測とトレーディングの問題に対して,提案手法であるDeConFuseを適用した。
CNNと長期記憶ネットワークをベースとした最先端手法との比較により,信頼性の高い特徴抽出を行う手法の優位性を示した。
関連論文リスト
- Deep Loss Convexification for Learning Iterative Models [11.36644967267829]
点雲登録のための反復的最近点(ICP)のような反復的手法は、しばしば悪い局所最適性に悩まされる。
我々は,各地真実の周囲に凸景観を形成する学習を提案する。
論文 参考訳(メタデータ) (2024-11-16T01:13:04Z) - Online Network Source Optimization with Graph-Kernel MAB [62.6067511147939]
大規模ネットワークにおける最適なソース配置をオンラインで学習するためのグラフカーネルマルチアームバンディットアルゴリズムであるGrab-UCBを提案する。
適応グラフ辞書モデルを用いて,ネットワークプロセスを記述する。
我々は、ネットワークパラメータに依存する性能保証を導出し、シーケンシャルな意思決定戦略の学習曲線にさらに影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-07T15:03:42Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - The Power of Linear Combinations: Learning with Random Convolutions [2.0305676256390934]
現代のCNNは、ランダムな(空間的な)畳み込みフィルタを更新することなく、高いテスト精度を達成することができる。
これらのランダムフィルタの組み合わせは、結果の操作を暗黙的に正規化することができる。
私たちは3ドル3セントの畳み込みを学習することで比較的小さな利益しか得られないが、学習率はカーネルサイズに比例して増加する。
論文 参考訳(メタデータ) (2023-01-26T19:17:10Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - Vibration-Based Condition Monitoring By Ensemble Deep Learning [0.0]
本研究では,アンサンブル深層学習手法に基づくフレームワークを提案する。
提案手法は,Equiax多結晶ニッケル合金第一段タービンブレードから収集した実試験データに適用した。
論文 参考訳(メタデータ) (2021-10-13T09:51:40Z) - FILTRA: Rethinking Steerable CNN by Filter Transform [59.412570807426135]
操舵可能なCNNの問題は群表現論の側面から研究されている。
フィルタ変換によって構築されたカーネルは群表現論でも解釈可能であることを示す。
この解釈は、ステアブルCNN理論のパズルを完成させ、ステアブル畳み込み演算子を実装するための、新しく簡単なアプローチを提供する。
論文 参考訳(メタデータ) (2021-05-25T03:32:34Z) - Deep Shells: Unsupervised Shape Correspondence with Optimal Transport [52.646396621449]
本稿では,3次元形状対応のための教師なし学習手法を提案する。
提案手法は,複数のデータセット上での最先端技術よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-28T22:24:07Z) - Deep Convolutional Transform Learning -- Extended version [31.034188573071898]
この研究は、Deep Convolutional Transform Learning (DCTL)と呼ばれる、教師なしの表現学習技術を導入している。
畳み込み変換を積み重ねることで、我々のアプローチは異なるレイヤで独立したカーネルの集合を学ぶことができる。
教師なしの方法で抽出された機能は、分類やクラスタリングといった機械学習タスクの実行に使用できる。
論文 参考訳(メタデータ) (2020-10-02T14:03:19Z) - Deep-3DAligner: Unsupervised 3D Point Set Registration Network With
Optimizable Latent Vector [15.900382629390297]
本稿では,3次元登録における技術的課題に対処するために,学習に最適化を統合する新しいモデルを提案する。
ディープトランスフォーメーションデコーディングネットワークに加えて、我々のフレームワークは最適化可能なディープアンダーラインSpatial UnderlineCorrelation UnderlineRepresentationを導入している。
論文 参考訳(メタデータ) (2020-09-29T22:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。