論文の概要: Self-Supervised Scalable Deep Compressed Sensing
- arxiv url: http://arxiv.org/abs/2308.13777v1
- Date: Sat, 26 Aug 2023 06:03:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 19:05:37.470824
- Title: Self-Supervised Scalable Deep Compressed Sensing
- Title(参考訳): 自己監督型スケーラブルディープ圧縮センシング
- Authors: Bin Chen, Xuanyu Zhang, Shuai Liu, Yongbing Zhang, Jian Zhang
- Abstract要約: 圧縮センシングはサンプリングコストを削減するための有望なツールである。
現在のディープニューラルネットワーク(NN)ベースのCS手法は、ラベル付き測定地上真実(GT)データを収集する際の課題に直面している。
本稿では,新しい$mathbfS$elf-supervised s$mathbfC$alable Deep CS法を提案する。
- 参考スコア(独自算出の注目度): 26.66504596823498
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Compressed sensing (CS) is a promising tool for reducing sampling costs.
Current deep neural network (NN)-based CS methods face challenges in collecting
labeled measurement-ground truth (GT) data and generalizing to real
applications. This paper proposes a novel $\mathbf{S}$elf-supervised
s$\mathbf{C}$alable deep CS method, comprising a $\mathbf{L}$earning scheme
called $\mathbf{SCL}$ and a family of $\mathbf{Net}$works named
$\mathbf{SCNet}$, which does not require GT and can handle arbitrary sampling
ratios and matrices once trained on a partial measurement set. Our SCL contains
a dual-domain loss and a four-stage recovery strategy. The former encourages a
cross-consistency on two measurement parts and a sampling-reconstruction
cycle-consistency regarding arbitrary ratios and matrices to maximize
data/information utilization. The latter can progressively leverage common
signal prior in external measurements and internal characteristics of test
samples and learned NNs to improve accuracy. SCNet combines the explicit
guidance from optimization algorithms with implicit regularization from
advanced NN blocks to learn a collaborative signal representation. Our
theoretical analyses and experiments on simulated and real captured data,
covering 1-/2-/3-D natural and scientific signals, demonstrate the
effectiveness, superior performance, flexibility, and generalization ability of
our method over existing self-supervised methods and its significant potential
in competing against state-of-the-art supervised methods.
- Abstract(参考訳): 圧縮センシング(CS)はサンプリングコストを削減するための有望なツールである。
現在のディープニューラルネットワーク(NN)ベースのCS手法は、ラベル付き測定地上真実(GT)データを収集し、実際のアプリケーションに一般化する際の課題に直面している。
本稿では,新しい$\mathbf{s}$elf-教師付き s$\mathbf{c}$alable deep cs 法を提案し,$\mathbf{scl}$ と呼ばれる$\mathbf{l}$earning スキームと$\mathbf{net}$works の族$\mathbf{scnet}$ からなる。
我々のSCLは二重ドメイン損失と4段階回復戦略を含んでいる。
前者は、データ/情報利用を最大化するために、2つの測定部における交差一貫性と、任意の比率と行列に関するサンプリング・再構成サイクル一貫性を奨励する。
後者は、テストサンプルと学習NNの内部特性の外部測定に先立って、共通信号を徐々に活用して精度を向上させることができる。
SCNetは最適化アルゴリズムからの明示的なガイダンスと高度なNNブロックからの暗黙の正規化を組み合わせて、協調的な信号表現を学ぶ。
1-/2-/3-Dの自然および科学的な信号をカバーする実捕集データに関する理論的解析と実験により,既存の自己監督手法に対する手法の有効性,優れた性能,柔軟性,一般化能力が実証された。
関連論文リスト
- Sharper Guarantees for Learning Neural Network Classifiers with Gradient Methods [43.32546195968771]
本研究では,スムーズなアクティベーションを有するニューラルネットワークに対する勾配法におけるデータ依存収束と一般化挙動について検討する。
我々の結果は、よく確立されたRadecher複雑性に基づく境界の欠点を改善した。
XOR分布の分類において、NTK体制の結果に対して大きなステップサイズが大幅に改善されることが示されている。
論文 参考訳(メタデータ) (2024-10-13T21:49:29Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Provably Efficient Neural Offline Reinforcement Learning via Perturbed
Rewards [33.88533898709351]
VIPeRは、ランダム化された値関数のアイデアと悲観主義の原理を一致させる。
オフラインデータを複数回摂動することで、暗黙的に悲観性を得る。
ニューラルネットワーク関数近似を用いた一般的なマルコフ決定過程(MDP)において、証明可能かつ計算的に効率的である。
論文 参考訳(メタデータ) (2023-02-24T17:52:12Z) - Joint Edge-Model Sparse Learning is Provably Efficient for Graph Neural
Networks [89.28881869440433]
本稿では,グラフニューラルネットワーク(GNN)における結合エッジモデルスパース学習の理論的特徴について述べる。
解析学的には、重要なノードをサンプリングし、最小のマグニチュードでプルーニングニューロンをサンプリングすることで、サンプルの複雑さを減らし、テスト精度を損なうことなく収束を改善することができる。
論文 参考訳(メタデータ) (2023-02-06T16:54:20Z) - Provably Efficient Offline Reinforcement Learning with Trajectory-Wise
Reward [66.81579829897392]
我々はPessimistic vAlue iteRaTionとrEward Decomposition (PARTED)という新しいオフライン強化学習アルゴリズムを提案する。
PartEDは、最小2乗ベースの報酬再分配を通じて、ステップごとのプロキシ報酬に軌道を分解し、学習したプロキシ報酬に基づいて悲観的な値を実行する。
私たちの知る限りでは、PartEDは、トラジェクティブな報酬を持つ一般のMDPにおいて、証明可能な効率のよい最初のオフラインRLアルゴリズムである。
論文 参考訳(メタデータ) (2022-06-13T19:11:22Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Distributed Sparse Feature Selection in Communication-Restricted
Networks [6.9257380648471765]
疎線形回帰と特徴選択のための新しい分散スキームを提案し,理論的に解析する。
データセット全体から因果次元を推定するために,ネットワーク内の情報共有をシンプルかつ効果的に行う手法を提案する。
論文 参考訳(メタデータ) (2021-11-02T05:02:24Z) - Besov Function Approximation and Binary Classification on
Low-Dimensional Manifolds Using Convolutional Residual Networks [42.43493635899849]
畳み込み残余ネットワーク(ConvResNet)の理論的保証を関数近似および二項分類の統計的推定の観点から確立する。
その結果,ConvResNetsはデータセットの低次元構造に適応していることがわかった。
論文 参考訳(メタデータ) (2021-09-07T02:58:11Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - GT-STORM: Taming Sample, Communication, and Memory Complexities in
Decentralized Non-Convex Learning [11.129095449532283]
近年,分散1/2非堅牢性最適化が注目されている。
分散最適化アルゴリズムの設計における3つの基本的な課題は、サンプルコスト、通信、メモリ複雑さの削減である。
論文 参考訳(メタデータ) (2021-05-04T00:44:48Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。