論文の概要: FRAC-Q-Learning: A Reinforcement Learning with Boredom Avoidance
Processes for Social Robots
- arxiv url: http://arxiv.org/abs/2311.15327v3
- Date: Sun, 10 Mar 2024 15:50:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 15:07:41.327400
- Title: FRAC-Q-Learning: A Reinforcement Learning with Boredom Avoidance
Processes for Social Robots
- Title(参考訳): FRAC-Q-Learning:社会ロボットのためのボレドム回避プロセスによる強化学習
- Authors: Akinari Onishi
- Abstract要約: 本稿では,ソーシャルロボットであるFRAC-Q学習に特化した新しい強化学習手法を提案する。
提案アルゴリズムは,プロセスのランダム化と分類に加えて,忘れるプロセスから構成される。
FRAC-Qラーニングは,従来のQラーニングに比べて関心度が高い傾向を示し,利用者のブーイングが著しく困難であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The reinforcement learning algorithms have often been applied to social
robots. However, most reinforcement learning algorithms were not optimized for
the use of social robots, and consequently they may bore users. We proposed a
new reinforcement learning method specialized for the social robot, the
FRAC-Q-learning, that can avoid user boredom. The proposed algorithm consists
of a forgetting process in addition to randomizing and categorizing processes.
This study evaluated interest and boredom hardness scores of the
FRAC-Q-learning by a comparison with the traditional Q-learning. The
FRAC-Q-learning showed significantly higher trend of interest score, and
indicated significantly harder to bore users compared to the traditional
Q-learning. Therefore, the FRAC-Q-learning can contribute to develop a social
robot that will not bore users. The proposed algorithm can also find
applications in Web-based communication and educational systems. This paper
presents the entire process, detailed implementation and a detailed evaluation
method of the of the FRAC-Q-learning for the first time.
- Abstract(参考訳): 強化学習アルゴリズムはしばしば社会ロボットに適用されている。
しかし、ほとんどの強化学習アルゴリズムはソーシャルロボットの使用に最適化されておらず、従ってユーザを惹きつける可能性がある。
本研究では,ソーシャルロボットであるfrac-q-learningに特化した新しい強化学習手法を提案する。
提案アルゴリズムは,プロセスのランダム化と分類に加えて,忘れるプロセスから構成される。
本研究では,従来のq-learningとの比較により,frac-q-learningへの関心と退屈度を評価した。
FRAC-Qラーニングは,従来のQラーニングに比べて関心度が高い傾向を示し,利用者のブーイングが著しく困難であった。
したがって、frac-q-learningはユーザーを退屈させないソーシャルロボットの開発に寄与することができる。
提案アルゴリズムは、Webベースのコミュニケーションや教育システムにも応用できる。
本稿では,frac-q-learningのプロセス全体,詳細な実装,詳細な評価方法について述べる。
関連論文リスト
- Lessons Learned from Designing an Open-Source Automated Feedback System
for STEM Education [5.326069675013602]
RATsAppはオープンソースの自動フィードバックシステム(AFS)で、フォーマティブフィードバックなどの研究ベースの機能を組み込んでいる。
このシステムは、数学的能力、表現能力、データリテラシーなどの中核的なSTEM能力に焦点を当てている。
オープンソースプラットフォームであるRATsAppは、継続的な開発へのパブリックコントリビューションを奨励し、教育ツールを改善するための共同アプローチを促進する。
論文 参考訳(メタデータ) (2024-01-19T07:13:07Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [61.14928315004026]
オフ・ポリティクス強化学習は、インタラクティブな模倣学習よりも近いが、潜在的にさらに実践的な仮定の下で、パフォーマンスを向上させることができる。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Don't Start From Scratch: Leveraging Prior Data to Automate Robotic
Reinforcement Learning [70.70104870417784]
強化学習(RL)アルゴリズムは、ロボットシステムの自律的なスキル獲得を可能にするという約束を持っている。
現実のロボットRLは、通常、環境をリセットするためにデータ収集と頻繁な人間の介入を必要とする。
本研究では,従来のタスクから収集した多様なオフラインデータセットを効果的に活用することで,これらの課題にどのように対処できるかを検討する。
論文 参考訳(メタデータ) (2022-07-11T08:31:22Z) - Hybrid Learning for Orchestrating Deep Learning Inference in Multi-user
Edge-cloud Networks [3.7630209350186807]
ディープラーニングのためのコラボレーション型のエッジクラウドコンピューティングは、さまざまなパフォーマンスと効率を提供する。
ディープラーニング推論オーケストレーション戦略では、最適なオーケストレーションポリシを見つけるために強化学習を採用している。
我々は、最先端のRLベースの推論オーケストレーションを実験的に比較することで、HL戦略の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-21T21:50:50Z) - From Machine Learning to Robotics: Challenges and Opportunities for
Embodied Intelligence [113.06484656032978]
記事は、インテリジェンスが機械学習技術の進歩の鍵を握っていると主張している。
私たちは、インテリジェンスを具体化するための課題と機会を強調します。
本稿では,ロボット学習の最先端性を著しく向上させる研究の方向性を提案する。
論文 参考訳(メタデータ) (2021-10-28T16:04:01Z) - Online Learning Probabilistic Event Calculus Theories in Answer Set
Programming [70.06301658267125]
イベント認識(CER)システムは、事前に定義されたイベントパターンを使用して、ストリーミングタイムスタンプデータセットで発生を検出する。
本稿では,複雑なイベントパターンによる確率論的推論を,イベント計算で重み付けされたルールの形で行うことができるAnswer Set Programming(ASP)に基づくシステムを提案する。
その結果, 効率と予測の両面で, 新たなアプローチの優位性が示された。
論文 参考訳(メタデータ) (2021-03-31T23:16:29Z) - Robot Navigation in a Crowd by Integrating Deep Reinforcement Learning
and Online Planning [8.211771115758381]
これは、群衆の中で時間効率と衝突のない道を移動するモバイルロボットにとって、まだオープンで挑戦的な問題です。
深層強化学習はこの問題に対する有望な解決策である。
グラフに基づく深部強化学習手法SG-DQNを提案する。
私たちのモデルは、ロボットが群衆をよりよく理解し、群衆ナビゲーションタスクで0.99以上の高い成功率を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-02-26T02:17:13Z) - Self-organizing Democratized Learning: Towards Large-scale Distributed
Learning Systems [71.14339738190202]
民主化された学習(Dem-AI)は、大規模な分散および民主化された機械学習システムを構築するための基本原則を備えた全体主義的哲学を定めている。
本稿では,Dem-AI哲学にヒントを得た分散学習手法を提案する。
提案アルゴリズムは,従来のFLアルゴリズムと比較して,エージェントにおける学習モデルの一般化性能が向上することを示す。
論文 参考訳(メタデータ) (2020-07-07T08:34:48Z) - A Novel Update Mechanism for Q-Networks Based On Extreme Learning
Machines [0.6445605125467573]
EQLM(Extreme Q-Learning Machine)は、勾配に基づく更新と同じ方法で強化学習問題に適用される。
我々はその性能を、カートポールタスクにおける典型的なQ-Networkと比較する。
EQLMはQ-Networkと同様の長期学習性能を持つことを示す。
論文 参考訳(メタデータ) (2020-06-04T16:16:13Z) - Augmented Q Imitation Learning (AQIL) [20.909770125018564]
模倣学習では、機械はエキスパートシステムの振舞いを模倣して学習するが、強化学習では直接的な環境フィードバックを通じて学習する。
本稿では,強化学習の収束を加速する手法であるAugmented Q-Imitation-Learningを提案する。
論文 参考訳(メタデータ) (2020-03-31T18:08:23Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。