論文の概要: Deep Reinforcement Learning for Band Selection in Hyperspectral Image
Classification
- arxiv url: http://arxiv.org/abs/2103.08741v1
- Date: Mon, 15 Mar 2021 22:06:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 13:33:33.332320
- Title: Deep Reinforcement Learning for Band Selection in Hyperspectral Image
Classification
- Title(参考訳): ハイパースペクトル画像分類におけるバンド選択のための深層強化学習
- Authors: Lichao Mou and Sudipan Saha and Yuansheng Hua and Francesca Bovolo and
Lorenzo Bruzzone and Xiao Xiang Zhu
- Abstract要約: 帯域選択とは、ハイパースペクトル画像において最も関連性の高い帯域を選択する過程を指す。
本稿では、ポリシーを自動的に学習して最適な帯域部分集合を選択できるインテリジェントエージェントを訓練することに関心を寄せる。
本研究では,教師なし帯域選択の問題をマルコフ決定プロセスとして捉え,パラメータ化のための効果的な手法を提案し,さらに深層強化学習によって解決する。
- 参考スコア(独自算出の注目度): 21.098473348205726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Band selection refers to the process of choosing the most relevant bands in a
hyperspectral image. By selecting a limited number of optimal bands, we aim at
speeding up model training, improving accuracy, or both. It reduces redundancy
among spectral bands while trying to preserve the original information of the
image. By now many efforts have been made to develop unsupervised band
selection approaches, of which the majority are heuristic algorithms devised by
trial and error. In this paper, we are interested in training an intelligent
agent that, given a hyperspectral image, is capable of automatically learning
policy to select an optimal band subset without any hand-engineered reasoning.
To this end, we frame the problem of unsupervised band selection as a Markov
decision process, propose an effective method to parameterize it, and finally
solve the problem by deep reinforcement learning. Once the agent is trained, it
learns a band-selection policy that guides the agent to sequentially select
bands by fully exploiting the hyperspectral image and previously picked bands.
Furthermore, we propose two different reward schemes for the environment
simulation of deep reinforcement learning and compare them in experiments.
This, to the best of our knowledge, is the first study that explores a deep
reinforcement learning model for hyperspectral image analysis, thus opening a
new door for future research and showcasing the great potential of deep
reinforcement learning in remote sensing applications. Extensive experiments
are carried out on four hyperspectral data sets, and experimental results
demonstrate the effectiveness of the proposed method.
- Abstract(参考訳): 帯域選択とは、ハイパースペクトル画像において最も関連性の高い帯域を選択する過程を指す。
限られた数の最適帯域を選択することで、モデルのトレーニングの高速化、精度の向上、あるいはその両方を目指す。
スペクトルバンド間の冗長性を低減し、元の画像情報を保存しようとする。
現在までに、教師なしのバンド選択手法の開発に多くの努力がなされており、その大半は試行錯誤によって考案されたヒューリスティックアルゴリズムである。
本稿では,ハイパースペクトル画像を用いて,手作業による推論を伴わずに最適なバンドサブセットを選択するためのポリシーを自動学習できるインテリジェントエージェントの訓練に関心がある。
そこで本研究では,教師なし帯域選択の問題をマルコフ決定過程とし,パラメータ化のための効果的な手法を提案し,さらに深層強化学習によって解決する。
エージェントが訓練されると、ハイパースペクトル画像と以前に選択されたバンドをフル活用することにより、エージェントが順次バンドを選択するためのバンド選択ポリシーを学ぶ。
さらに,深層強化学習の環境シミュレーションのための2つの報奨スキームを提案し,実験で比較した。
これは、我々の知る限り、ハイパースペクトル画像解析のための深層強化学習モデルを探求する最初の研究であり、将来の研究のための新たな扉を開き、リモートセンシングアプリケーションにおける深部強化学習の大きな可能性を示す。
4つの超スペクトルデータセットを用いて実験を行い,提案手法の有効性を実験的に検証した。
関連論文リスト
- Multi-Teacher Multi-Objective Meta-Learning for Zero-Shot Hyperspectral Band Selection [50.30291173608449]
ゼロショットハイパースペクトル帯選択のための新しい多目的メタラーニングネットワーク(M$3$BS)を提案する。
M$3$BSでは、データセットに依存しないベースを生成するために、一般化可能なグラフ畳み込みネットワーク(GCN)を構築している。
取得したメタ知識は、トレーニングや微調整なしに、直接見えないデータセットに転送することができる。
論文 参考訳(メタデータ) (2024-06-12T07:13:31Z) - Multi-Armed Bandits with Abstention [62.749500564313834]
本稿では, 新たな戦略要素である禁忌を取り入れた, 正準多重武装バンディット問題の拡張を提案する。
この強化されたフレームワークでは、エージェントは各タイムステップでアームを選択することだけでなく、観察する前に即時報酬を受け付けないオプションも備えている。
論文 参考訳(メタデータ) (2024-02-23T06:27:12Z) - Embedded Hyperspectral Band Selection with Adaptive Optimization for
Image Semantic Segmentation [0.0]
組込みソリューションを提供するハイパースペクトル帯選択のための先駆的アプローチを導入する。
提案手法は, 先行処理を必要とせず, 最適帯域の選択に優れる埋込みハイパースペクトル帯域選択(EHBS)である。
他のタスクへの我々のアプローチの適応性は、より広範なアプリケーションへの有望な道を開く。
論文 参考訳(メタデータ) (2024-01-21T07:48:39Z) - Pure Exploration under Mediators' Feedback [63.56002444692792]
マルチアームバンディット(Multi-armed bandits)は、各インタラクションステップにおいて、学習者が腕を選択し、報酬を観察する、シーケンシャルな意思決定フレームワークである。
本稿では,学習者が仲介者の集合にアクセスできるシナリオについて考察する。
本稿では,学習者には仲介者の方針が知られていると仮定して,最適な腕を発見するための逐次的意思決定戦略を提案する。
論文 参考訳(メタデータ) (2023-08-29T18:18:21Z) - Bandit approach to conflict-free multi-agent Q-learning in view of
photonic implementation [0.0]
従来の研究では、光子の量子干渉を使って競合する多重武装バンディットの問題を解決してきた。
本研究は,より汎用的なマルチエージェント強化学習への従来のアプローチを拡張した。
成功したフォトニック強化学習方式は、学習の質に寄与するフォトニックシステムと適切なアルゴリズムの両方を必要とする。
論文 参考訳(メタデータ) (2022-12-20T00:27:29Z) - A new band selection approach based on information theory and support
vector machine for hyperspectral images reduction and classification [0.0]
スペクトル帯の選択は、無関係でノイズの多い、冗長なバンドを取り除くための重要なステップです。
本稿では,各帯域間の統計的依存度と相関度を測定するために,共同情報に基づく新たな戦略を提案する。
提案手法は,相互情報に基づく効率的な再生フィルタと比較する。
論文 参考訳(メタデータ) (2022-10-26T10:54:23Z) - A Novel Approach for Dimensionality Reduction and Classification of
Hyperspectral Images based on Normalized Synergy [0.0]
クラス予測に相補的な関連帯域を検出するために,新しいフィルタ手法である正規化相互シナジー(NMS)を提案する。
提案手法は,最大正規化交感神経情報の組み合わせに基づいて,選択した帯域の識別力を測定する。
NASAが提案した3つのベンチマークハイパースペクトル画像の実験結果は、提案手法の堅牢性、有効性、識別力を示した。
論文 参考訳(メタデータ) (2022-10-25T10:36:26Z) - SelectAugment: Hierarchical Deterministic Sample Selection for Data
Augmentation [72.58308581812149]
そこで我々は,SelectAugmentと呼ばれる効果的な手法を提案し,決定論的かつオンラインに拡張するサンプルを選択する。
具体的には、各バッチにおいて、まず増分比率を決定し、次にこの比で各トレーニングサンプルを増分するかを決定する。
これにより、サンプルを増量する際のランダム性による負の効果を効果的に軽減し、DAの有効性を向上させることができる。
論文 参考訳(メタデータ) (2021-12-06T08:38:38Z) - Hyperspectral Band Selection for Multispectral Image Classification with
Convolutional Networks [0.0]
ハイパースペクトル画像から波長の減少したセットを選択するための新しいバンド選択法を提案する。
本手法により,マルチスペクトルセンサの設計に適した結果が得られることを示す。
論文 参考訳(メタデータ) (2021-06-01T17:24:35Z) - Semi-supervised Facial Action Unit Intensity Estimation with Contrastive
Learning [54.90704746573636]
提案手法では,手動でキーフレームを選択する必要はなく,2%の注釈付きフレームで最先端の結果を生成できる。
提案手法は, ランダムに選択したデータに対してわずか2%の費用で作業した場合に, 既存の手法よりも優れていることを実験的に検証した。
論文 参考訳(メタデータ) (2020-11-03T17:35:57Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。