論文の概要: Deep Reinforcement Learning for Conservation Decisions
- arxiv url: http://arxiv.org/abs/2106.08272v1
- Date: Tue, 15 Jun 2021 16:32:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 18:07:19.757294
- Title: Deep Reinforcement Learning for Conservation Decisions
- Title(参考訳): 保全判断のための深層強化学習
- Authors: Marcus Lapeyrolerie, Melissa S. Chapman, Kari E. A. Norman, Carl
Boettiger
- Abstract要約: 我々は、最も困難な保全決定問題に対処するために、_reinforcement learning_(RL)として知られる機械学習の有望なコーナーの可能性を示す。
RLは明らかに、エージェントを設計することに焦点を当てている。
動的で不確実な環境と相互作用します
注釈付きコードを持つ4つの付録は、これらのアプローチを採用し、評価し、拡張しようとしている研究者に、具体的な紹介を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Can machine learning help us make better decisions about a changing planet?
In this paper, we illustrate and discuss the potential of a promising corner of
machine learning known as _reinforcement learning_ (RL) to help tackle the most
challenging conservation decision problems. RL is uniquely well suited to
conservation and global change challenges for three reasons: (1) RL explicitly
focuses on designing an agent who _interacts_ with an environment which is
dynamic and uncertain, (2) RL approaches do not require massive amounts of
data, (3) RL approaches would utilize rather than replace existing models,
simulations, and the knowledge they contain. We provide a conceptual and
technical introduction to RL and its relevance to ecological and conservation
challenges, including examples of a problem in setting fisheries quotas and in
managing ecological tipping points. Four appendices with annotated code provide
a tangible introduction to researchers looking to adopt, evaluate, or extend
these approaches.
- Abstract(参考訳): 機械学習は、惑星の変化に関するより良い意思決定に役立つだろうか?
本稿では、最も困難な保存的意思決定問題に取り組むために、_reinforcement learning_(rl)と呼ばれる有望な機械学習のコーナーの可能性を説明し、議論する。
RLは, 動的かつ不確実な環境下で, _interacts_を設計すること, (2) RLアプローチは大量のデータを必要としないこと, 3) RLアプローチは既存のモデルやシミュレーション, それらに含まれる知識を置き換えるよりも活用すること,の3つの理由から, 保全的かつグローバルな変更課題に適している。
本研究は,水産クオータの設定や生態的転換点の管理に問題のある事例を含む,rlの概念的・技術的導入とその生態的・保全的課題との関連性について述べる。
注釈付きコードを持つ4つの付録は、これらのアプローチの採用、評価、拡張を探している研究者に具体的な紹介を提供する。
関連論文リスト
- Reinforcement Learning for Sociohydrology [8.68732851119558]
本稿では,強化学習が社会水理問題の解決に有効な枠組みを提供する方法について論じる。
本稿では,ランオフ低減問題におけるRLの実装を実証するための簡単なケーススタディを提案する。
論文 参考訳(メタデータ) (2024-05-31T13:28:37Z) - Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Flexible Attention-Based Multi-Policy Fusion for Efficient Deep
Reinforcement Learning [78.31888150539258]
強化学習(RL)エージェントは、長い間、人間の学習の効率にアプローチしようとしてきた。
RLにおける以前の研究は、エージェントがサンプル効率を改善するために外部知識ポリシーを取り入れていた。
我々は,複数の知識ポリシーを融合させたRLパラダイムであるKGRL(Knowledge-Grounded RL)について述べる。
論文 参考訳(メタデータ) (2022-10-07T17:56:57Z) - Exploration via Planning for Information about the Optimal Trajectory [67.33886176127578]
我々は,タスクと現在の知識を考慮に入れながら,探索を計画できる手法を開発した。
本手法は, 探索基準値よりも2倍少ないサンプルで, 強いポリシーを学習できることを実証する。
論文 参考訳(メタデータ) (2022-10-06T20:28:55Z) - A Survey on Model-based Reinforcement Learning [21.85904195671014]
強化学習(Reinforcement Learning, RL)は、環境と対話する試行錯誤プロセスを通じて、シーケンシャルな意思決定問題を解決する。
モデルベース強化学習(MBRL)は有望な方向であり、実際のコストなしで試行錯誤を行う環境モデルを構築する。
論文 参考訳(メタデータ) (2022-06-19T05:28:03Z) - Power and accountability in reinforcement learning applications to
environmental policy [0.0]
強化学習(Reinforcement Learning, RL)は、どちらも最大の約束を持ち、最も迫る危険を提示する。
本稿では,RLによる政策が環境領域における既存の電力関係にどのように影響するかを考察する。
論文 参考訳(メタデータ) (2022-05-22T19:31:37Z) - Reinforcement Learning in Time-Varying Systems: an Empirical Study [10.822467081722152]
非定常性によってもたらされる課題に対処するためのフレームワークを開発する。
このようなエージェントは、システムのパフォーマンスを損なうことなく、新しい環境を探索し、学習する必要がある。
当社のフレームワークは,トラグラー緩和と適応型ビデオストリーミングという2つのシステム問題に適用する。
論文 参考訳(メタデータ) (2022-01-14T17:04:11Z) - Automated Reinforcement Learning (AutoRL): A Survey and Open Problems [92.73407630874841]
AutoRL(Automated Reinforcement Learning)には、AutoMLの標準的なアプリケーションだけでなく、RL特有の課題も含まれている。
我々は共通の分類法を提供し、各領域を詳細に議論し、今後の研究者にとって関心のあるオープンな問題を提起する。
論文 参考訳(メタデータ) (2022-01-11T12:41:43Z) - Exploratory State Representation Learning [63.942632088208505]
本稿では,XSRL(eXploratory State Representation Learning)と呼ばれる新しい手法を提案する。
一方、コンパクトな状態表現と、その表現から不可解な情報を除去するために使用される状態遷移推定器を共同で学習する。
一方、逆モデルを継続的に訓練し、このモデルの予測誤差に$k$-stepの学習促進ボーナスを加え、発見ポリシーの目的を形成する。
論文 参考訳(メタデータ) (2021-09-28T10:11:07Z) - On the Reliability and Generalizability of Brain-inspired Reinforcement
Learning Algorithms [10.09712608508383]
モデルベースとモデルフリー制御を組み合わせた計算モデルは,前頭前野のRLと呼ばれ,人間が学習した高レベル政策に関する情報を確実にエンコードする。
これは、脳が一般的な問題を解決する方法を模倣する計算モデルが実用的な解決策をもたらす可能性を正式にテストする最初の試みである。
論文 参考訳(メタデータ) (2020-07-09T06:32:42Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。