論文の概要: Reinforcement Learning: An Overview
- arxiv url: http://arxiv.org/abs/2412.05265v1
- Date: Fri, 06 Dec 2024 18:53:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:57:14.446507
- Title: Reinforcement Learning: An Overview
- Title(参考訳): 強化学習の概要
- Authors: Kevin Murphy,
- Abstract要約: この写本は、(深い)強化学習とシーケンシャルな意思決定の分野を概観している。
価値ベースのRL、ポリシーのグラディエントなメソッド、モデルベースのメソッド、その他さまざまなトピックをカバーしています。
- 参考スコア(独自算出の注目度): 6.146578707999203
- License:
- Abstract: This manuscript gives a big-picture, up-to-date overview of the field of (deep) reinforcement learning and sequential decision making, covering value-based RL, policy-gradient methods, model-based methods, and various other topics (including a very brief discussion of RL+LLMs).
- Abstract(参考訳): この原稿は、(深い)強化学習とシーケンシャルな意思決定の分野、価値ベースのRL、ポリシーのグラディエントな方法、モデルベースの方法、その他さまざまなトピック(RL+LLMの非常に簡単な議論を含む)について、最新かつ最新の概要を提供している。
関連論文リスト
- Introduction to Reinforcement Learning [2.52299400625445]
強化学習(Reinforcement Learning, RL)は、累積報酬を最大化するために環境と対話して意思決定を行う訓練エージェントに焦点を当てる。
本稿ではRLの概要を述べるとともに,その中核となる概念,方法論,さらに学ぶためのリソースについて述べる。
論文 参考訳(メタデータ) (2024-08-13T23:08:06Z) - Masked Modeling for Self-supervised Representation Learning on Vision
and Beyond [69.64364187449773]
仮面モデリングは、トレーニング中に比例的にマスキングされる元のデータの一部を予測する、独特なアプローチとして現れてきた。
マスクモデリングにおけるテクニックの詳細については,多様なマスキング戦略,ターゲット回復,ネットワークアーキテクチャなどについて詳述する。
我々は、現在の手法の限界について議論し、マスクモデリング研究を進めるためのいくつかの道のりを指摘した。
論文 参考訳(メタデータ) (2023-12-31T12:03:21Z) - Deep Generative Models for Decision-Making and Control [4.238809918521607]
この論文の2つの目的は、これらの欠点の理由を研究し、未解決問題に対する解決策を提案することである。
本稿では、ビームサーチを含む現代の生成モデリングツールボックスからの推論手法を、強化学習問題のための実行可能な計画戦略として再解釈する方法について述べる。
論文 参考訳(メタデータ) (2023-06-15T01:54:30Z) - Unified Off-Policy Learning to Rank: a Reinforcement Learning
Perspective [61.4025671743675]
メソッドをランク付けするオフポリシー学習は、ユーザがクリックデータを生成する方法に関して、強い仮定をすることが多い。
オフライン強化学習は,複雑なデバイアス手法や事前知識を使わずに,様々なクリックモデルに適応できることを示す。
様々な大規模データセットの結果から、CUOLRはアルゴリズムのランク付けに最先端のオフポリシー学習を一貫して上回っていることが示される。
論文 参考訳(メタデータ) (2023-06-13T03:46:22Z) - Reinforcement Learning with Partial Parametric Model Knowledge [3.3598755777055374]
我々は,環境の完全無知と完全知識のギャップを埋めるために,継続的制御のための強化学習手法を適用した。
本手法は,モデルフリーRLとモデルベース制御の両方からインスピレーションを得て,PLSPI(Partial Knowledge Least Squares Policy Iteration)を提案する。
論文 参考訳(メタデータ) (2023-04-26T01:04:35Z) - Inverse Reinforcement Learning for Text Summarization [52.765898203824975]
本稿では,抽象的な要約モデルを学習するための効果的なパラダイムとして,逆強化学習(IRL)を導入する。
異なる領域におけるデータセット間の実験結果は、MLEおよびRLベースラインに対する要約のための提案したIRLモデルの優位性を示す。
論文 参考訳(メタデータ) (2022-12-19T23:45:05Z) - A Comprehensive Survey of Data Augmentation in Visual Reinforcement Learning [53.35317176453194]
データ拡張(DA)は、サンプル効率と一般化可能なポリシーを取得するために視覚的RLで広く使われている技術である。
本稿では、視覚的RLで使用されている既存の拡張技法の原則的な分類法を提案し、拡張データをどのように活用するかを詳細に議論する。
視覚的RLにおけるDAに関する最初の総合的な調査として、この研究は、この新興分野に貴重なガイダンスを提供するものと期待されている。
論文 参考訳(メタデータ) (2022-10-10T11:01:57Z) - Unsupervised Representation Learning in Deep Reinforcement Learning: A Review [1.2016264781280588]
本稿では,DRL(Deep Reinforcement Learning)の文脈における測定データの抽象表現学習の問題点について述べる。
このレビューでは、世界の表現を学習するために使用される主要なDeep Learningツールを記述することで、DRLにおける教師なし表現学習の包括的で完全な概要を提供する。
論文 参考訳(メタデータ) (2022-08-27T09:38:56Z) - PoBRL: Optimizing Multi-Document Summarization by Blending Reinforcement
Learning Policies [68.8204255655161]
マルチドキュメントの要約を解くための強化学習ベースのフレームワーク PoBRL を提案する。
私たちの戦略は、この多対象最適化を、強化学習によって個別に解決できるさまざまなサブ問題に分離します。
実験結果から,複数のマルチドキュメントデータセットにおける最先端の性能を示す。
論文 参考訳(メタデータ) (2021-05-18T02:55:42Z) - A Survey on Deep Semi-supervised Learning [51.26862262550445]
まず,既存の手法を分類した深層半指導学習の分類法を提案する。
次に、損失の種類、貢献度、アーキテクチャの違いの観点から、これらのメソッドを詳細に比較します。
論文 参考訳(メタデータ) (2021-02-28T16:22:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。