論文の概要: Learning Structured Compressed Sensing with Automatic Resource Allocation
- arxiv url: http://arxiv.org/abs/2410.18954v1
- Date: Thu, 24 Oct 2024 17:53:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 12:49:09.999183
- Title: Learning Structured Compressed Sensing with Automatic Resource Allocation
- Title(参考訳): リソースの自動割り当てによる構造化圧縮センシングの学習
- Authors: Han Wang, Eduardo Pérez, Iris A. M. Huijben, Hans van Gorp, Ruud van Sloun, Florian Römer,
- Abstract要約: 多次元データ取得には時間を要することが多く、ハードウェアやソフトウェアにとって大きな課題となる。
情報理論に基づく教師なし学習戦略を用いたSCOSARA(Structured Compressed Sensing with Automatic Resource Allocation)を提案する。
- 参考スコア(独自算出の注目度): 10.298464166235272
- License:
- Abstract: Multidimensional data acquisition often requires extensive time and poses significant challenges for hardware and software regarding data storage and processing. Rather than designing a single compression matrix as in conventional compressed sensing, structured compressed sensing yields dimension-specific compression matrices, reducing the number of optimizable parameters. Recent advances in machine learning (ML) have enabled task-based supervised learning of subsampling matrices, albeit at the expense of complex downstream models. Additionally, the sampling resource allocation across dimensions is often determined in advance through heuristics. To address these challenges, we introduce Structured COmpressed Sensing with Automatic Resource Allocation (SCOSARA) with an information theory-based unsupervised learning strategy. SCOSARA adaptively distributes samples across sampling dimensions while maximizing Fisher information content. Using ultrasound localization as a case study, we compare SCOSARA to state-of-the-art ML-based and greedy search algorithms. Simulation results demonstrate that SCOSARA can produce high-quality subsampling matrices that achieve lower Cram\'er-Rao Bound values than the baselines. In addition, SCOSARA outperforms other ML-based algorithms in terms of the number of trainable parameters, computational complexity, and memory requirements while automatically choosing the number of samples per axis.
- Abstract(参考訳): 多次元データ取得には時間を要することが多く、データストレージと処理に関してハードウェアとソフトウェアに重大な課題が生じる。
従来の圧縮センシングのように単一の圧縮行列を設計する代わりに、構造化圧縮センシングは次元固有の圧縮行列を出力し、最適化可能なパラメータの数を減少させる。
機械学習(ML)の最近の進歩により、複雑な下流モデルに代えて、サブサンプリング行列のタスクベースの教師付き学習が可能になった。
さらに、各次元にまたがる資源のサンプリングは、しばしばヒューリスティックスによって事前に決定される。
これらの課題に対処するために,情報理論に基づく教師なし学習戦略を用いたSCOSARA(Structured COmpressed Sensing with Automatic Resource Allocation)を導入する。
SCOSARAは、フィッシャー情報量を最大化しながらサンプルをサンプリング次元に適応的に分散する。
超音波ローカライゼーションを事例として,SCOSARAと最先端のMLベースおよびグリージー検索アルゴリズムを比較した。
シミュレーションの結果,SCOSARA はクラム・ラオ境界値がベースラインよりも低い品質のサブサンプリング行列を生成可能であることが示された。
さらに、SCOSARAは他のMLベースのアルゴリズムよりも、トレーニング可能なパラメータの数、計算の複雑さ、メモリ要求量で優れており、軸ごとのサンプル数を自動的に選択する。
関連論文リスト
- Misam: Using ML in Dataflow Selection of Sparse-Sparse Matrix Multiplication [0.8363939984237685]
スパース行列行列行列乗法(SpGEMM)は、科学計算、グラフ解析、ディープラーニングにおいて重要な演算である。
従来のハードウェアアクセラレータは、固定されたデータフロースキームを備えた特定のスパーシティパターン用に調整されている。
本稿では,SpGEMMタスクに最適なデータフロースキームを適応的に選択するための機械学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-06-14T16:36:35Z) - LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
この汎用ツールキットによって、我々のベンチマークはキャリブレーションデータ、アルゴリズム(3つの戦略)、データフォーマットの3つの重要な側面をカバーしています。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z) - A Quantum Approach to Synthetic Minority Oversampling Technique (SMOTE) [1.5186937600119894]
本稿では,機械学習データセットにおけるクラス不均衡の問題を解くために,Quantum-SMOTE法を提案する。
量子SMOTEはスワップテストや量子回転といった量子プロセスを用いて合成データポイントを生成する。
このアプローチは、Telecom Churnの公開データセットでテストされ、その影響と、さまざまな合成データの比率を決定する。
論文 参考訳(メタデータ) (2024-02-27T10:46:36Z) - Curated LLM: Synergy of LLMs and Data Curation for tabular augmentation in low-data regimes [57.62036621319563]
本稿では,Large Language Models (LLMs) の知識を低データ構造におけるデータ拡張に活用したCLLMを紹介する。
従来のジェネレータと比較して,低データ方式におけるCLLMの優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-19T12:34:46Z) - Randomized Dimension Reduction with Statistical Guarantees [0.27195102129095]
この論文は、高速な実行と効率的なデータ利用のためのアルゴリズムをいくつか探求している。
一般化と分散性を向上する様々なデータ拡張を組み込んだ学習アルゴリズムに着目する。
具体的には、第4章では、データ拡張整合正則化のための複雑性分析のサンプルを提示する。
論文 参考訳(メタデータ) (2023-10-03T02:01:39Z) - Performance Embeddings: A Similarity-based Approach to Automatic
Performance Optimization [71.69092462147292]
パフォーマンス埋め込みは、アプリケーション間でパフォーマンスチューニングの知識伝達を可能にする。
本研究では, 深層ニューラルネットワーク, 密度およびスパース線形代数合成, および数値風速予測ステンシルのケーススタディにおいて, この伝達チューニング手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T15:51:35Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - SreaMRAK a Streaming Multi-Resolution Adaptive Kernel Algorithm [60.61943386819384]
既存のKRRの実装では、すべてのデータがメインメモリに格納される必要がある。
KRRのストリーミング版であるStreaMRAKを提案する。
本稿では,2つの合成問題と2重振り子の軌道予測について紹介する。
論文 参考訳(メタデータ) (2021-08-23T21:03:09Z) - Recovery of Linear Components: Reduced Complexity Autoencoder Designs [0.951828574518325]
本論文では,線形・非線形次元低減技術の中間点となる線形成分の回収(Recovery of Linear Components, RLC)という手法を提案する。
合成および実世界のケーススタディの助けを借りて,類似した複雑性を持つオートエンコーダと比較すると,rlcは高い精度を示し,頑健性と過剰適合性,より高速なトレーニング時間を示すことを示した。
論文 参考訳(メタデータ) (2020-12-14T14:08:20Z) - Multilinear Compressive Learning with Prior Knowledge [106.12874293597754]
マルチリニア圧縮学習(MCL)フレームワークは、マルチリニア圧縮センシングと機械学習をエンドツーエンドシステムに統合する。
MCLの背後にある主要なアイデアは、下流学習タスクの信号から重要な特徴を捉えることのできるテンソル部分空間の存在を仮定することである。
本稿では、上記の要件、すなわち、関心の信号が分離可能なテンソル部分空間をどうやって見つけるかという、2つの要件に対処する新しい解決策を提案する。
論文 参考訳(メタデータ) (2020-02-17T19:06:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。