論文の概要: Modeling Risk in Reinforcement Learning: A Literature Mapping
- arxiv url: http://arxiv.org/abs/2312.05231v1
- Date: Fri, 8 Dec 2023 18:26:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 14:12:53.734449
- Title: Modeling Risk in Reinforcement Learning: A Literature Mapping
- Title(参考訳): 強化学習におけるモデリングリスク:文献マッピング
- Authors: Leonardo Villalobos-Arias, Derek Martin, Abhijeet Krishnan, Madeleine
Gagn\'e, Colin M. Potts, Arnav Jhala
- Abstract要約: 我々は,安全RLのリスクを特徴付けるために,系統的な文献マッピングを行う。
得られた結果に基づいて、複数のアプリケーションドメインにまたがるリスクの定義、特徴、タイプを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Safe reinforcement learning deals with mitigating or avoiding unsafe
situations by reinforcement learning (RL) agents. Safe RL approaches are based
on specific risk representations for particular problems or domains. In order
to analyze agent behaviors, compare safe RL approaches, and effectively
transfer techniques between application domains, it is necessary to understand
the types of risk specific to safe RL problems. We performed a systematic
literature mapping with the objective to characterize risk in safe RL. Based on
the obtained results, we present definitions, characteristics, and types of
risk that hold on multiple application domains. Our literature mapping covers
literature from the last 5 years (2017-2022), from a variety of knowledge areas
(AI, finance, engineering, medicine) where RL approaches emphasize risk
representation and management. Our mapping covers 72 papers filtered
systematically from over thousands of papers on the topic. Our proposed notion
of risk covers a variety of representations, disciplinary differences, common
training exercises, and types of techniques. We encourage researchers to
include explicit and detailed accounts of risk in future safe RL research
reports, using this mapping as a starting point. With this information,
researchers and practitioners could draw stronger conclusions on the
effectiveness of techniques on different problems.
- Abstract(参考訳): 安全強化学習は、強化学習(RL)エージェントによる安全でない状況を緩和または回避する。
安全なRLアプローチは、特定の問題やドメインに対する特定のリスク表現に基づいている。
エージェントの動作を分析し、安全なRLアプローチを比較し、アプリケーションドメイン間で効果的に転送するには、安全なRL問題に特有のリスクの種類を理解する必要がある。
安全RLのリスクを特徴付けるために,系統的な文献マッピングを行った。
得られた結果に基づいて,複数のアプリケーションドメインに保持するリスクの定義,特徴,タイプを示す。
RLアプローチがリスク表現と管理を重視するさまざまな知識領域(AI,金融,工学,医学)から,過去5年間(2017-2022年)の文献を網羅する。
私たちのマッピングは、このトピックに関する数千以上の論文から体系的にフィルタリングされた72の論文をカバーしています。
提案するリスク概念は,様々な表現,学際的差異,共通の訓練演習,技術の種類をカバーする。
我々は、このマッピングを出発点として、将来の安全なRL研究レポートに明示的で詳細なリスク説明を含めることを推奨する。
この情報により、研究者や実践者は、異なる問題におけるテクニックの有効性について、より強力な結論を導き出すことができる。
関連論文リスト
- Navigating the Risks: A Survey of Security, Privacy, and Ethics Threats in LLM-Based Agents [67.07177243654485]
この調査は、大規模言語モデルに基づくエージェントが直面するさまざまな脅威を収集、分析する。
LLMをベースとしたエージェントの6つの重要な特徴を概説する。
4つの代表エージェントをケーススタディとして選択し,実践的に直面する可能性のあるリスクを分析した。
論文 参考訳(メタデータ) (2024-11-14T15:40:04Z) - Risks and NLP Design: A Case Study on Procedural Document QA [52.557503571760215]
より具体的なアプリケーションやユーザに対して分析を専門化すれば,ユーザに対するリスクや害の明確な評価が可能になる,と我々は主張する。
リスク指向のエラー分析を行い、リスクの低減とパフォーマンスの向上を図り、将来のシステムの設計を通知する。
論文 参考訳(メタデータ) (2024-08-16T17:23:43Z) - Safe and Robust Reinforcement Learning: Principles and Practice [0.0]
強化学習は比較的複雑なタスクの解決に顕著な成功を収めた。
現実のシナリオにおけるRLシステムのデプロイは、安全性と堅牢性に関する重大な課題を生じさせる。
本稿では, アルゴリズム, 倫理的, 実践的考察を含む安全で堅牢なRL景観の主次元について考察する。
論文 参考訳(メタデータ) (2024-03-27T13:14:29Z) - Provable Risk-Sensitive Distributional Reinforcement Learning with
General Function Approximation [54.61816424792866]
本稿では,リスク感性分布強化学習(RS-DisRL)と静的リプシッツリスク対策(LRM),一般関数近似について紹介する。
モデルに基づく関数近似のためのモデルベース戦略であるtextttRS-DisRL-M と、一般値関数近似のためのモデルフリーアプローチである textttRS-DisRL-V の2つの革新的なメタアルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-02-28T08:43:18Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Safeguarded Progress in Reinforcement Learning: Safe Bayesian
Exploration for Control Policy Synthesis [63.532413807686524]
本稿では、強化学習(RL)におけるトレーニング中の安全維持の問題に対処する。
探索中の効率的な進捗と安全性のトレードオフを扱う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-12-18T16:09:43Z) - Is Risk-Sensitive Reinforcement Learning Properly Resolved? [32.42976780682353]
そこで本稿では,RSRL問題に対して最適ポリシーに収束可能な新しいアルゴリズムであるトラジェクトリQ-Learning(TQL)を提案する。
新たな学習アーキテクチャに基づいて,さまざまなリスク対応政策を学習するための,さまざまなリスク対策の汎用的かつ実践的な実装を自由に導入できる。
論文 参考訳(メタデータ) (2023-07-02T11:47:21Z) - TASRA: a Taxonomy and Analysis of Societal-Scale Risks from AI [11.240642213359267]
多くの抜本的な分類が可能であり、特に新しいリスクや安全性への実践的なアプローチを明らかにする場合、有用であるものもある。
本稿では,リスクに繋がる行動,アクターは一体化されているか,意図的かという,説明責任に基づく分類について考察する。
また、AIシステムの予期せぬ相互作用から生じるリスクや、意図的に悪用されるリスクなど、さまざまなリスクタイプがどのように機能するかを説明する物語も提供しています。
論文 参考訳(メタデータ) (2023-06-12T07:55:18Z) - UQ for Credit Risk Management: A deep evidence regression approach [3.42658286826597]
我々は、スケーラブルなUQ対応ディープラーニング技術であるDeep Evidence Regressionの適用について検討し、Loss given Defaultの予測に適用した。
我々は,Weibullプロセスによって生成される対象変数を学習するために,Deep Evidence Regression方法論を拡張して文献に貢献する。
シミュレーションデータと実世界のデータの両方に対する我々のアプローチの応用を実証する。
論文 参考訳(メタデータ) (2023-05-08T18:03:01Z) - A Survey of Risk-Aware Multi-Armed Bandits [84.67376599822569]
我々は、様々な利害リスク対策をレビューし、その特性についてコメントする。
我々は,探索と探索のトレードオフが現れる,後悔の最小化設定のためのアルゴリズムを検討する。
今後の研究の課題と肥大化についてコメントし、締めくくりに締めくくります。
論文 参考訳(メタデータ) (2022-05-12T02:20:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。