論文の概要: Exploration in Knowledge Transfer Utilizing Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2407.10835v1
- Date: Mon, 15 Jul 2024 15:45:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 14:30:11.754989
- Title: Exploration in Knowledge Transfer Utilizing Reinforcement Learning
- Title(参考訳): 強化学習を活用した知識伝達の探索
- Authors: Adam Jedlička, Tatiana Valentine Guy,
- Abstract要約: 本論文は,深層移動学習アルゴリズムで用いられる探索手法を比較することを目的としている。
用いられる方法は、$epsilon$-greedy、Boltzmann、そして高信頼境界探索である。
以上の結果から, 上位信頼境界アルゴリズムはこれらの選択肢の中で最良であることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The contribution focuses on the problem of exploration within the task of knowledge transfer. Knowledge transfer refers to the useful application of the knowledge gained while learning the source task in the target task. The intended benefit of knowledge transfer is to speed up the learning process of the target task. The article aims to compare several exploration methods used within a deep transfer learning algorithm, particularly Deep Target Transfer $Q$-learning. The methods used are $\epsilon$-greedy, Boltzmann, and upper confidence bound exploration. The aforementioned transfer learning algorithms and exploration methods were tested on the virtual drone problem. The results have shown that the upper confidence bound algorithm performs the best out of these options. Its sustainability to other applications is to be checked.
- Abstract(参考訳): この貢献は、知識伝達のタスクにおける探索の問題に焦点を当てている。
知識伝達は、目標タスクのソースタスクを学習しながら得られる知識の有用な応用を指す。
知識伝達の意図した利点は、目標タスクの学習プロセスを高速化することである。
この記事では、ディープトランスファー学習アルゴリズムで使用されるいくつかの探索手法、特にディープターゲットトランスファーの$Q$-learningを比較することを目的としている。
用いられる方法は、$\epsilon$-greedy、Boltzmann、そして高信頼境界探索である。
上記の転送学習アルゴリズムと探索手法は、仮想ドローン問題に対して試験された。
以上の結果から, 上位信頼度境界アルゴリズムはこれらの選択肢の中で最良であることがわかった。
他のアプリケーションに対する持続可能性を確認すること。
関連論文リスト
- Is Exploration All You Need? Effective Exploration Characteristics for Transfer in Reinforcement Learning [13.322146980081778]
我々は、オンライントランスファー学習に肯定的な影響を及ぼす特徴を特定するために、さまざまなトランスファータイプ(またはノベルティ')で11の人気のある探索アルゴリズムをテストする。
分析の結果,特定の環境変化に対してのみ伝達性能が向上するのに対し,その特性は幅広い伝達タスクにおける性能と効率の向上と相関していることがわかった。
論文 参考訳(メタデータ) (2024-04-02T18:45:01Z) - Similarity-based Knowledge Transfer for Cross-Domain Reinforcement
Learning [3.3148826359547523]
我々は,エンコーダ・デコーダのセットを用いて,異なる空間に適合する半教師付きアライメント損失を開発する。
従来の手法と比較して、我々の手法は専門家のポリシーによって整列、ペア化、あるいは収集されるデータを必要としない。
論文 参考訳(メタデータ) (2023-12-05T19:26:01Z) - Evaluating the structure of cognitive tasks with transfer learning [67.22168759751541]
本研究では,脳波復号処理における深層学習表現の伝達可能性について検討した。
最近リリースされた2つのEEGデータセット上で、最先端デコードモデルを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2023-07-28T14:51:09Z) - Curiosity-Driven Reinforcement Learning based Low-Level Flight Control [95.42181254494287]
本研究では,オドメトリデータから適切な運動速度を生成することにより,自律学習のための好奇心の駆動に基づくアルゴリズムを提案する。
探索パターンの進化における好奇心の効果を可視化したアルゴリズムとアルゴリズムを用いて、オン・ポリティ、オフ・ポリティ、オン・ポリティ、オン・ポリティと好奇心を用いたテストを実行した。
論文 参考訳(メタデータ) (2023-07-28T11:46:28Z) - A Unified End-to-End Retriever-Reader Framework for Knowledge-based VQA [67.75989848202343]
本稿では,知識に基づくVQAに向けて,エンド・ツー・エンドのレトリバー・リーダー・フレームワークを提案する。
我々は、視覚言語による事前学習モデルからの多モーダルな暗黙の知識に光を当て、知識推論の可能性を掘り下げた。
提案手法では,知識検索のガイダンスを提供するだけでなく,質問応答に対してエラーが発生しやすいケースも排除できる。
論文 参考訳(メタデータ) (2022-06-30T02:35:04Z) - Multi-Source Transfer Learning for Deep Model-Based Reinforcement
Learning [0.6445605125467572]
強化学習における重要な課題は、エージェントが与えられたタスクをマスターするために必要な環境との相互作用の数を減らすことである。
伝達学習は、以前に学習したタスクから知識を再利用することでこの問題に対処することを提案する。
本研究の目的は,モジュール型マルチソーストランスファー学習技術を用いて,これらの課題に対処することである。
論文 参考訳(メタデータ) (2022-05-28T12:04:52Z) - Transferability in Deep Learning: A Survey [80.67296873915176]
知識を習得し再利用する能力は、ディープラーニングにおける伝達可能性として知られている。
本研究は,深層学習における異なる孤立領域と伝達可能性との関係を関連付けるための調査である。
我々はベンチマークとオープンソースライブラリを実装し、転送可能性の観点からディープラーニング手法の公平な評価を可能にする。
論文 参考訳(メタデータ) (2022-01-15T15:03:17Z) - Hierarchical Skills for Efficient Exploration [70.62309286348057]
強化学習において、事前訓練された低レベルスキルは、探索を大幅に促進する可能性がある。
下流タスクの以前の知識は、スキルデザインにおける一般性(きめ細かい制御)と特異性(より高速な学習)の適切なバランスをとるために必要である。
教師なしの方法で様々な複雑さのスキルを習得する階層的スキル学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-20T22:29:32Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z) - A new Potential-Based Reward Shaping for Reinforcement Learning Agent [0.0]
提案手法はエピソードの累積報酬から知識を抽出する。
その結果,シングルタスクとマルチタスク強化学習エージェントの学習プロセスの改善が示唆された。
論文 参考訳(メタデータ) (2019-02-17T10:34:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。