論文の概要: Multilinear Compressive Learning with Prior Knowledge
- arxiv url: http://arxiv.org/abs/2002.07203v1
- Date: Mon, 17 Feb 2020 19:06:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 12:52:49.445799
- Title: Multilinear Compressive Learning with Prior Knowledge
- Title(参考訳): 先行知識を用いたマルチ線形圧縮学習
- Authors: Dat Thanh Tran, Moncef Gabbouj, Alexandros Iosifidis
- Abstract要約: マルチリニア圧縮学習(MCL)フレームワークは、マルチリニア圧縮センシングと機械学習をエンドツーエンドシステムに統合する。
MCLの背後にある主要なアイデアは、下流学習タスクの信号から重要な特徴を捉えることのできるテンソル部分空間の存在を仮定することである。
本稿では、上記の要件、すなわち、関心の信号が分離可能なテンソル部分空間をどうやって見つけるかという、2つの要件に対処する新しい解決策を提案する。
- 参考スコア(独自算出の注目度): 106.12874293597754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recently proposed Multilinear Compressive Learning (MCL) framework
combines Multilinear Compressive Sensing and Machine Learning into an
end-to-end system that takes into account the multidimensional structure of the
signals when designing the sensing and feature synthesis components. The key
idea behind MCL is the assumption of the existence of a tensor subspace which
can capture the essential features from the signal for the downstream learning
task. Thus, the ability to find such a discriminative tensor subspace and
optimize the system to project the signals onto that data manifold plays an
important role in Multilinear Compressive Learning. In this paper, we propose a
novel solution to address both of the aforementioned requirements, i.e., How to
find those tensor subspaces in which the signals of interest are highly
separable? and How to optimize the sensing and feature synthesis components to
transform the original signals to the data manifold found in the first
question? In our proposal, the discovery of a high-quality data manifold is
conducted by training a nonlinear compressive learning system on the inference
task. Its knowledge of the data manifold of interest is then progressively
transferred to the MCL components via multi-stage supervised training with the
supervisory information encoding how the compressed measurements, the
synthesized features, and the predictions should be like. The proposed
knowledge transfer algorithm also comes with a semi-supervised adaption that
enables compressive learning models to utilize unlabeled data effectively.
Extensive experiments demonstrate that the proposed knowledge transfer method
can effectively train MCL models to compressively sense and synthesize better
features for the learning tasks with improved performances, especially when the
complexity of the learning task increases.
- Abstract(参考訳): 最近提案されたMCL(Multilinear Compressive Learning)フレームワークは、センサと特徴合成コンポーネントを設計する際に、信号の多次元構造を考慮したエンドツーエンドシステムに、マルチ線形圧縮センシングと機械学習を組み合わせる。
MCLの背後にある重要なアイデアは、下流学習タスクの信号から重要な特徴を捉えることのできるテンソル部分空間の存在を仮定することである。
したがって、そのような判別テンソル部分空間を見つけ、そのデータ多様体に信号を投影するシステムを最適化する能力は、多線形圧縮学習において重要な役割を果たす。
本稿では、上記の要件、すなわち、関心の信号が分離可能なテンソル部分空間をどうやって見つけるかという、2つの要件に対処する新しい解決策を提案する。
そして、最初の質問で見つかったデータ多様体に元の信号を変換するために、センシングと特徴合成コンポーネントをどう最適化するか?
本提案では,非線形圧縮学習システムを推論タスクで訓練することにより,高品質なデータ多様体の発見を行う。
興味のあるデータ多様体に関するその知識は、圧縮された測定値、合成された特徴、そして予測がどのようにあるべきかをコードする監督情報を用いて、多段階の教師付きトレーニングによって徐々にMCLコンポーネントに転送される。
提案する知識伝達アルゴリズムは、圧縮学習モデルがラベルなしのデータを有効に利用できる半教師付き適応も備えている。
広範な実験により,提案手法はmclモデルを効果的に学習し,特に学習タスクの複雑さが増大する場合において,学習タスクのより優れた特徴を圧縮的に認識し合成できることが示されている。
関連論文リスト
- Understanding Auditory Evoked Brain Signal via Physics-informed Embedding Network with Multi-Task Transformer [3.261870217889503]
マルチタスク変換器(PEMT-Net)を用いた物理インフォームド・エンベディング・ネットワークという,革新的なマルチタスク学習モデルを提案する。
PEMT-Netは物理インフォームド埋め込みとディープラーニング技術によりデコード性能を向上させる。
特定のデータセットに対する実験は、PEMT-Netがマルチタスクの聴覚信号復号における顕著な性能を示した。
論文 参考訳(メタデータ) (2024-06-04T06:53:32Z) - Learning with Multigraph Convolutional Filters [153.20329791008095]
MSPモデルに基づいて情報を処理する階層構造として多グラフ畳み込みニューラルネットワーク(MGNN)を導入する。
また,MGNNにおけるフィルタ係数のトラクタブルな計算手法と,レイヤ間で転送される情報の次元性を低減するための低コストな手法を開発した。
論文 参考訳(メタデータ) (2022-10-28T17:00:50Z) - Sample-Efficient Reinforcement Learning in the Presence of Exogenous
Information [77.19830787312743]
実世界の強化学習アプリケーションでは、学習者の観察空間は、その課題に関する関連情報と無関係情報の両方でユビキタスに高次元である。
本稿では,強化学習のための新しい問題設定法であるExogenous Decision Process (ExoMDP)を導入する。
内因性成分の大きさのサンプル複雑度で準最適ポリシーを学習するアルゴリズムであるExoRLを提案する。
論文 参考訳(メタデータ) (2022-06-09T05:19:32Z) - ColloSSL: Collaborative Self-Supervised Learning for Human Activity
Recognition [9.652822438412903]
堅牢なヒューマンアクティビティ認識モデル(HAR)のトレーニングにおける大きなボトルネックは、大規模ラベル付きセンサーデータセットの必要性である。
大量のセンサデータをラベル付けすることは高価な作業であるため、教師なしおよび半教師なしの学習技術が出現している。
複数のデバイスから収集されたラベルのないデータを活用するコラボレーティブ・セルフスーパーバイズ・ラーニング(ColloSSL)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-01T21:05:05Z) - Remote Multilinear Compressive Learning with Adaptive Compression [107.87219371697063]
MultiIoT Compressive Learning (MCL)は、多次元信号に対する効率的な信号取得および学習パラダイムである。
MCLモデルにそのような機能を実現するための新しい最適化手法を提案する。
論文 参考訳(メタデータ) (2021-09-02T19:24:03Z) - Signal Transformer: Complex-valued Attention and Meta-Learning for
Signal Recognition [33.178794056273304]
本稿では,理論収束保証を伴う一般の非評価問題に対して,CAMEL(complex-valued Attentional MEta Learner)を提案する。
本報告では, 状態が小さい場合に, 提案したデータ認識実験の優位性を示す。
論文 参考訳(メタデータ) (2021-06-05T03:57:41Z) - Performance Indicator in Multilinear Compressive Learning [106.12874293597754]
マルチリニア圧縮学習(MCL)フレームワークは,多次元信号を扱う際の知覚と学習のステップを効率的に最適化するために提案された。
本稿では,入力信号の分解能,圧縮された測定値数,MCLの学習性能の関係を解析する。
論文 参考訳(メタデータ) (2020-09-22T11:27:50Z) - MARS: Mixed Virtual and Real Wearable Sensors for Human Activity
Recognition with Multi-Domain Deep Learning Model [21.971345137218886]
仮想IMUに基づく大規模データベースの構築を提案し,その上で,3つの技術部分からなる多分野ディープラーニングフレームワークを導入することにより,技術的問題に対処する。
まず,混成畳み込みニューラルネットワーク(CNN)を用いたノイズの多いIMUデータから,単一フレームの人間活動について半教師付き形式で学習することを提案する。
第2の部分は、不確実性を認識した一貫性の原則に従って抽出されたデータ特徴を融合する。
転送学習は、最近リリースされたArchive of Motion Capture as Surface Shapes (AMASS)データセットに基づいて、最後の部分で実行される。
論文 参考訳(メタデータ) (2020-09-20T10:35:14Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。