論文の概要: Reinforcement Learning of Adaptive Acquisition Policies for Inverse Problems
- arxiv url: http://arxiv.org/abs/2407.07794v1
- Date: Wed, 10 Jul 2024 16:12:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-11 15:53:02.140139
- Title: Reinforcement Learning of Adaptive Acquisition Policies for Inverse Problems
- Title(参考訳): 逆問題に対する適応的獲得政策の強化学習
- Authors: Gianluigi Silvestri, Fabio Valerio Massoli, Tribhuvanesh Orekondy, Afshin Abdi, Arash Behboodi,
- Abstract要約: 高次元信号を得るための高価なプロセスを軽減するための有望な方法は、限られた数の低次元測定を取得することである。
そこで本研究では,測定結果を逐次収集し,基礎となる信号をよりよく復元する強化学習に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 20.107765127408097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A promising way to mitigate the expensive process of obtaining a high-dimensional signal is to acquire a limited number of low-dimensional measurements and solve an under-determined inverse problem by utilizing the structural prior about the signal. In this paper, we focus on adaptive acquisition schemes to save further the number of measurements. To this end, we propose a reinforcement learning-based approach that sequentially collects measurements to better recover the underlying signal by acquiring fewer measurements. Our approach applies to general inverse problems with continuous action spaces and jointly learns the recovery algorithm. Using insights obtained from theoretical analysis, we also provide a probabilistic design for our methods using variational formulation. We evaluate our approach on multiple datasets and with two measurement spaces (Gaussian, Radon). Our results confirm the benefits of adaptive strategies in low-acquisition horizon settings.
- Abstract(参考訳): 高次元信号を得るためのコストのかかるプロセスを緩和するための有望な方法は、限られた低次元の測定値を取得し、信号の構造的事前を利用して、過度に決定された逆問題を解決することである。
本稿では, 適応的な取得方式に着目し, 測定回数の削減に留意する。
そこで本研究では,測定を逐次収集する強化学習に基づく手法を提案する。
提案手法は, 連続行動空間における一般逆問題に適用し, 回復アルゴリズムを共同学習する。
また,理論解析から得られた知見を用いて,変分定式化を用いた手法の確率的設計を提案する。
我々は、複数のデータセットと2つの測定空間(ガウス、ラドン)でアプローチを評価した。
その結果,低取得地平線設定における適応戦略の利点が確認できた。
関連論文リスト
- A Bayesian Robust Regression Method for Corrupted Data Reconstruction [5.298637115178182]
我々は適応的敵攻撃に抵抗できる効果的なロバスト回帰法を開発した。
まず TRIP (hard Thresholding approach to Robust regression with sImple Prior) アルゴリズムを提案する。
次に、より堅牢なBRHT (robust Bayesian Reweighting regression via Hard Thresholding) アルゴリズムを構築するためにベイズ再重み付け(Bayesian reweighting)というアイデアを用いる。
論文 参考訳(メタデータ) (2022-12-24T17:25:53Z) - Vector-Valued Least-Squares Regression under Output Regularity
Assumptions [73.99064151691597]
最小二乗回帰問題を無限次元出力で解くために,還元ランク法を提案し,解析する。
提案手法の学習バウンダリを導出し、フルランク手法と比較して統計的性能の設定を改善する研究を行う。
論文 参考訳(メタデータ) (2022-11-16T15:07:00Z) - A Provably Efficient Model-Free Posterior Sampling Method for Episodic
Reinforcement Learning [50.910152564914405]
強化学習のための既存の後方サンプリング手法は、モデルベースであるか、線形MDPを超える最悪の理論的保証がないかによって制限される。
本稿では,理論的保証を伴うより一般的な補足的強化学習問題に適用可能な,後部サンプリングのモデルフリーな新しい定式化を提案する。
論文 参考訳(メタデータ) (2022-08-23T12:21:01Z) - Exploring the solution space of linear inverse problems with GAN latent
geometry [23.779985842891705]
逆問題とは、不完全な測定セットからの信号の再構成である。
そこで本研究では, 生成的逆数ネットワークによって学習された, 測定値とデータ駆動型事前学習の両方に適合する複数の再構成を生成する手法を提案する。
論文 参考訳(メタデータ) (2022-07-01T14:33:44Z) - Gradient-Based Learning of Discrete Structured Measurement Operators for
Signal Recovery [16.740247586153085]
本稿では、勾配に基づく学習を利用して離散最適化問題を解く方法について述べる。
GLODISMO (Gradient-based Learning of DIscrete Structured Measurement Operators) によるアプローチの定式化
いくつかの信号回復アプリケーションにおいて,GLODISMOの性能と柔軟性を実証的に示す。
論文 参考訳(メタデータ) (2022-02-07T18:27:08Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Solving Sparse Linear Inverse Problems in Communication Systems: A Deep
Learning Approach With Adaptive Depth [51.40441097625201]
疎信号回復問題に対するエンドツーエンドの訓練可能なディープラーニングアーキテクチャを提案する。
提案手法は,出力するレイヤ数を学習し,各タスクのネットワーク深さを推論フェーズで動的に調整する。
論文 参考訳(メタデータ) (2020-10-29T06:32:53Z) - Solving the scalarization issues of Advantage-based Reinforcement
Learning Algorithms [2.400834442447969]
本稿では,Advantage Actor Critic (A2C) 強化学習アルゴリズムにおける多目的最適化問題のスカラー化から生じる問題について検討する。
この論文は、ナイーブなスカラー化によって勾配が重なり合うことを示す。
エントロピー正規化項が制御不能雑音の源となる可能性について論じる。
論文 参考訳(メタデータ) (2020-04-08T17:03:21Z) - Improving Robustness of Deep-Learning-Based Image Reconstruction [24.882806652224854]
逆問題解法では, 測定空間における敵の効果を分析し, 研究する必要がある。
本稿では,高機能な画像再構成ネットワークを構築するために,min-maxの定式化に使用される逆例を生成する補助ネットワークを提案する。
提案したmin-max学習方式を用いた線形ネットワークは,実際に同じ解に収束する。
論文 参考訳(メタデータ) (2020-02-26T22:12:36Z) - Disentangling Adaptive Gradient Methods from Learning Rates [65.0397050979662]
適応的勾配法が学習率のスケジュールとどのように相互作用するかを、より深く検討する。
我々は、更新の規模をその方向から切り離す"グラフティング"実験を導入する。
適応勾配法の一般化に関する経験的および理論的考察を示す。
論文 参考訳(メタデータ) (2020-02-26T21:42:49Z) - The Simulator: Understanding Adaptive Sampling in the
Moderate-Confidence Regime [52.38455827779212]
エミュレータと呼ばれる適応サンプリングを解析するための新しい手法を提案する。
適切なログファクタを組み込んだトップk問題の最初のインスタンスベースの下位境界を証明します。
我々の新しい分析は、後者の問題に対するこの種の最初のエミュレータであるベストアームとトップkの識別に、シンプルでほぼ最適であることを示した。
論文 参考訳(メタデータ) (2017-02-16T23:42:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。