論文の概要: A Unified Cognitive Learning Framework for Adapting to Dynamic
Environment and Tasks
- arxiv url: http://arxiv.org/abs/2106.00501v1
- Date: Tue, 1 Jun 2021 14:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-02 18:54:44.973604
- Title: A Unified Cognitive Learning Framework for Adapting to Dynamic
Environment and Tasks
- Title(参考訳): 動的環境とタスクへの適応のための統一認知学習フレームワーク
- Authors: Qihui Wu, Tianchen Ruan, Fuhui Zhou, Yang Huang, Fan Xu, Shijin Zhao,
Ya Liu, and Xuyang Huang
- Abstract要約: 動的無線環境とタスクのための統合認知学習(CL)フレームワークを提案する。
提案するCLフレームワークには,動的な環境やタスクに適応する能力,自己学習能力,そして,変調認識を例に挙げて,「悪いお金を追い出す良い金」の能力という,3つの利点があることが示されている。
- 参考スコア(独自算出の注目度): 19.459770316922437
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many machine learning frameworks have been proposed and used in wireless
communications for realizing diverse goals. However, their incapability of
adapting to the dynamic wireless environment and tasks and of self-learning
limit their extensive applications and achievable performance. Inspired by the
great flexibility and adaptation of primate behaviors due to the brain
cognitive mechanism, a unified cognitive learning (CL) framework is proposed
for the dynamic wireless environment and tasks. The mathematical framework for
our proposed CL is established. Using the public and authoritative dataset, we
demonstrate that our proposed CL framework has three advantages, namely, the
capability of adapting to the dynamic environment and tasks, the self-learning
capability and the capability of 'good money driving out bad money' by taking
modulation recognition as an example. The proposed CL framework can enrich the
current learning frameworks and widen the applications.
- Abstract(参考訳): 多くの機械学習フレームワークが提案され、様々な目標を実現するために無線通信に利用されている。
しかし、ダイナミックなワイヤレス環境やタスクに適応できず、自己学習ができないことで、幅広い応用と達成可能な性能が制限される。
脳認知機構による霊長類行動の柔軟性と適応性に着想を得て、動的無線環境とタスクに対して統合認知学習(CL)フレームワークが提案されている。
提案するCLの数学的枠組みを確立した。
提案するCLフレームワークには,動的な環境やタスクに適応する能力,自己学習能力,そして,変調認識を例に挙げて「悪いお金を追い出す良い金」の能力の3つの利点があることを示す。
提案されているCLフレームワークは、現在の学習フレームワークを強化し、アプリケーションを拡張することができる。
関連論文リスト
- Decision Stacks: Flexible Reinforcement Learning via Modular Generative
Models [37.79386205079626]
Decision Stacksは、ゴール条件付きポリシーエージェントを3つの生成モジュールに分解する生成フレームワークである。
これらのモジュールは、教師の強制によって並列に学習できる独立した生成モデルを通じて、観察、報酬、行動の時間的進化をシミュレートする。
我々のフレームワークは、アーキテクチャバイアス、最適化目標とダイナミクス、ドメイン間の転送可能性、推論速度といった重要な要素を考慮するために、個々のモジュールを設計する際の表現性と柔軟性の両方を保証します。
論文 参考訳(メタデータ) (2023-06-09T20:52:16Z) - Adaptive Ensemble Learning: Boosting Model Performance through
Intelligent Feature Fusion in Deep Neural Networks [0.0]
本稿では,ディープラーニングの性能向上を目的としたAdaptive Ensemble Learningフレームワークを提案する。
このフレームワークは、より堅牢で適応可能なモデルを作成するために、アンサンブル学習戦略とディープラーニングアーキテクチャを統合する。
インテリジェントな特徴融合手法を利用することで、フレームワークはより差別的で効果的な特徴表現を生成する。
論文 参考訳(メタデータ) (2023-04-04T21:49:49Z) - Goal-Conditioned Q-Learning as Knowledge Distillation [136.79415677706612]
目標条件設定における非政治強化学習と知識蒸留との関連について検討する。
これは,目標の空間が高次元である場合に,目標条件付き非政治強化学習の性能を向上させることを実証的に示す。
また,複数のスパース目標を同時に達成した場合に,この手法を効果的に学習できることを示す。
論文 参考訳(メタデータ) (2022-08-28T22:01:10Z) - Unsupervised Domain Adaptation with Dynamics-Aware Rewards in
Reinforcement Learning [28.808933152885874]
無条件強化学習は、事前の目標表現なしでスキルを獲得することを目的としている。
別の相互作用に富んだ環境でのトレーニングの直感的なアプローチは、ターゲット環境におけるトレーニングスキルを阻害する。
本稿では,動的にスキルを習得するための教師なしドメイン適応手法を提案する。
論文 参考訳(メタデータ) (2021-10-25T14:40:48Z) - Learning Multi-Objective Curricula for Deep Reinforcement Learning [55.27879754113767]
深部強化学習(DRL)のサンプル効率と最終性能を向上させるために,各種自動カリキュラム学習(ACL)手法が提案されている。
本稿では,多目的だがコヒーレントなカリキュラムを作成するための統合された自動カリキュラム学習フレームワークを提案する。
既存の手設計のカリキュラムパラダイムに加えて,抽象カリキュラムを学習するためのフレキシブルなメモリ機構を設計する。
論文 参考訳(メタデータ) (2021-10-06T19:30:25Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - A Framework to Counteract Suboptimal User-Behaviors in Exploratory
Learning Environments: an Application to MOOCs [1.1421942894219896]
ログ化されたインタラクションデータを使用して、どの行動パターンやアクティビティパターンをトリガーするかを学習する、データ駆動型ユーザモデリングフレームワークに重点を置いています。
本稿では,このフレームワークを探索環境の一形態であるMOOC(Massive Open Online Courses)に適用する。
論文 参考訳(メタデータ) (2021-06-14T16:16:33Z) - Generative Adversarial Reward Learning for Generalized Behavior Tendency
Inference [71.11416263370823]
ユーザの行動嗜好モデルのための生成的逆強化学習を提案する。
我々のモデルは,差別的アクター批判ネットワークとWasserstein GANに基づいて,ユーザの行動から報酬を自動的に学習することができる。
論文 参考訳(メタデータ) (2021-05-03T13:14:25Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z) - Learning to Continuously Optimize Wireless Resource In Episodically
Dynamic Environment [55.91291559442884]
この研究は、データ駆動型手法が動的環境で継続的に学習し、最適化できる方法論を開発する。
本稿では,無線システム学習のモデリングプロセスに連続学習の概念を構築することを提案する。
我々の設計は、異なるデータサンプル間で「一定の公正性を保証する」新しいmin-maxの定式化に基づいている。
論文 参考訳(メタデータ) (2020-11-16T08:24:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。