論文の概要: Performance Indicator in Multilinear Compressive Learning
- arxiv url: http://arxiv.org/abs/2009.10456v1
- Date: Tue, 22 Sep 2020 11:27:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 22:43:30.505998
- Title: Performance Indicator in Multilinear Compressive Learning
- Title(参考訳): マルチ線形圧縮学習における性能指標
- Authors: Dat Thanh Tran, Moncef Gabbouj, Alexandros Iosifidis
- Abstract要約: マルチリニア圧縮学習(MCL)フレームワークは,多次元信号を扱う際の知覚と学習のステップを効率的に最適化するために提案された。
本稿では,入力信号の分解能,圧縮された測定値数,MCLの学習性能の関係を解析する。
- 参考スコア(独自算出の注目度): 106.12874293597754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, the Multilinear Compressive Learning (MCL) framework was proposed
to efficiently optimize the sensing and learning steps when working with
multidimensional signals, i.e. tensors. In Compressive Learning in general, and
in MCL in particular, the number of compressed measurements captured by a
compressive sensing device characterizes the storage requirement or the
bandwidth requirement for transmission. This number, however, does not
completely characterize the learning performance of a MCL system. In this
paper, we analyze the relationship between the input signal resolution, the
number of compressed measurements and the learning performance of MCL. Our
empirical analysis shows that the reconstruction error obtained at the
initialization step of MCL strongly correlates with the learning performance,
thus can act as a good indicator to efficiently characterize learning
performances obtained from different sensor configurations without optimizing
the entire system.
- Abstract(参考訳): 近年,マルチリニア圧縮学習(MCL)フレームワークが提案されている。
圧縮学習全般において、特にMCLでは、圧縮センシング装置によって捕捉された圧縮測定回数は、伝送のための記憶要求または帯域幅要求を特徴付ける。
しかし、この数値はmclシステムの学習性能を完全に特徴づけるものではない。
本稿では,入力信号の分解能,圧縮された測定値数,MCLの学習性能の関係を解析する。
実験により,MCLの初期化段階で得られた再構成誤差は学習性能と強く相関し,システム全体を最適化することなく,異なるセンサ構成から得られた学習性能を効率よく評価できる指標として機能することを示した。
関連論文リスト
- CoMMIT: Coordinated Instruction Tuning for Multimodal Large Language Models [68.64605538559312]
本稿では,MLLM命令のチューニングを理論的・経験的両面から解析する。
そこで本研究では,学習バランスを定量的に評価する尺度を提案する。
さらに,MLLMの生成分布の更新を促進する補助的損失正規化手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T23:18:55Z) - Understanding Multimodal Contrastive Learning and Incorporating Unpaired
Data [19.72282903349282]
マルチモーダル・コントラッシブ・ラーニング(MMCL)における非線形損失関数の一般クラスを示す。
MMCLの特徴学習能力は,各モダリティに適用される一助的コントラスト学習能力よりも優れていることを示す。
追加の未ペアデータにアクセスできる場合、追加の未ペアデータを含む新たなMMCL損失を提案する。
論文 参考訳(メタデータ) (2023-02-13T10:11:05Z) - Gradient-Based Learning of Discrete Structured Measurement Operators for
Signal Recovery [16.740247586153085]
本稿では、勾配に基づく学習を利用して離散最適化問題を解く方法について述べる。
GLODISMO (Gradient-based Learning of DIscrete Structured Measurement Operators) によるアプローチの定式化
いくつかの信号回復アプリケーションにおいて,GLODISMOの性能と柔軟性を実証的に示す。
論文 参考訳(メタデータ) (2022-02-07T18:27:08Z) - Adaptive neighborhood Metric learning [184.95321334661898]
適応的近傍距離距離学習(ANML)という新しい距離距離距離距離距離距離学習アルゴリズムを提案する。
ANMLは線形埋め込みと深層埋め込みの両方を学ぶのに使うことができる。
本手法で提案するemphlog-exp平均関数は,深層学習手法をレビューするための新たな視点を与える。
論文 参考訳(メタデータ) (2022-01-20T17:26:37Z) - Remote Multilinear Compressive Learning with Adaptive Compression [107.87219371697063]
MultiIoT Compressive Learning (MCL)は、多次元信号に対する効率的な信号取得および学習パラダイムである。
MCLモデルにそのような機能を実現するための新しい最適化手法を提案する。
論文 参考訳(メタデータ) (2021-09-02T19:24:03Z) - Learning Invariant Representations using Inverse Contrastive Loss [34.93395633215398]
興味のある変数に不変な学習表現に対して,損失のクラスを導入する。
外部変数がバイナリである場合、iclの最適化は正規化mmd分岐の最適化と同値であることを示す。
論文 参考訳(メタデータ) (2021-02-16T18:29:28Z) - ECML: An Ensemble Cascade Metric Learning Mechanism towards Face
Verification [50.137924223702264]
特に、階層的メートル法学習はカスケード方式で実行され、不適合を緩和する。
顔の特徴分布特性を考慮し, 閉形解を用いたロバストなマハラノビス計量学習法(RMML)を提案する。
EC-RMMLは、顔認証のための最先端のメトリック学習法よりも優れている。
論文 参考訳(メタデータ) (2020-07-11T08:47:07Z) - Multilinear Compressive Learning with Prior Knowledge [106.12874293597754]
マルチリニア圧縮学習(MCL)フレームワークは、マルチリニア圧縮センシングと機械学習をエンドツーエンドシステムに統合する。
MCLの背後にある主要なアイデアは、下流学習タスクの信号から重要な特徴を捉えることのできるテンソル部分空間の存在を仮定することである。
本稿では、上記の要件、すなわち、関心の信号が分離可能なテンソル部分空間をどうやって見つけるかという、2つの要件に対処する新しい解決策を提案する。
論文 参考訳(メタデータ) (2020-02-17T19:06:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。