論文の概要: Multi-objective Reinforcement Learning based approach for User-Centric
Power Optimization in Smart Home Environments
- arxiv url: http://arxiv.org/abs/2009.13854v1
- Date: Tue, 29 Sep 2020 08:28:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 07:04:33.126278
- Title: Multi-objective Reinforcement Learning based approach for User-Centric
Power Optimization in Smart Home Environments
- Title(参考訳): スマートホーム環境におけるユーザ中心パワー最適化のための多目的強化学習手法
- Authors: Saurabh Gupta, Siddhant Bhambri, Karan Dhingra, Arun Balaji Buduru,
Ponnurangam Kumaraguru
- Abstract要約: 本稿では,消費電力を最小化し,ユーザ満足度を最大化することを目的とした,新たな多目的強化学習フレームワークを提案する。
このフレームワークは、2つの目標間のトレードオフを探求し、より良い電力管理ポリシーに収束する。
本研究は, 一定間隔でデバイスモードが変動するデバイスを最適化するために, 定期的に使用するデバイスを対象とすべきであることを示す。
- 参考スコア(独自算出の注目度): 15.782737651946569
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Smart homes require every device inside them to be connected with each other
at all times, which leads to a lot of power wastage on a daily basis. As the
devices inside a smart home increase, it becomes difficult for the user to
control or operate every individual device optimally. Therefore, users
generally rely on power management systems for such optimization but often are
not satisfied with the results. In this paper, we present a novel
multi-objective reinforcement learning framework with two-fold objectives of
minimizing power consumption and maximizing user satisfaction. The framework
explores the trade-off between the two objectives and converges to a better
power management policy when both objectives are considered while finding an
optimal policy. We experiment on real-world smart home data, and show that the
multi-objective approaches: i) establish trade-off between the two objectives,
ii) achieve better combined user satisfaction and power consumption than
single-objective approaches. We also show that the devices that are used
regularly and have several fluctuations in device modes at regular intervals
should be targeted for optimization, and the experiments on data from other
smart homes fetch similar results, hence ensuring transfer-ability of the
proposed framework.
- Abstract(参考訳): スマートホームは、すべてのデバイスが常時接続される必要があるため、毎日多くの電力が浪費される。
スマートホーム内のデバイスが増加するにつれて、ユーザが個々のデバイスを最適に制御したり操作したりすることが困難になる。
そのため、ユーザは通常、最適化のために電力管理システムに頼るが、結果に満足しないことが多い。
本稿では,消費電力の最小化とユーザ満足度の最大化という2つの目的を持った,新たな多目的強化学習フレームワークを提案する。
この枠組みは、2つの目標間のトレードオフを探求し、最適な政策を見つけながら両方の目標が検討されるときに、より良い電力管理政策に収束する。
私たちは実世界のスマートホームデータを実験し、マルチ目的のアプローチを示します。
一 二つの目的の間にトレードオフを確立すること
二 単目的アプローチよりもユーザ満足度と消費電力の組合せが優れていること。
また,定期的に使用され,一定間隔でデバイスモードが変動するデバイスは最適化を目標とすべきであり,他のスマートホームからのデータ実験も同様の結果を得るため,提案フレームワークの転送可能性を確保することを実証した。
関連論文リスト
- Multi-objective Differentiable Neural Architecture Search [62.16997839075649]
本研究では,パフォーマンスとハードウェアメトリクスのトレードオフのために,ユーザの好みを符号化するNASアルゴリズムを提案する。
提案手法は,定性的に異なる探索空間とデータセットをまたいだ既存のMOO NAS法より優れている。
論文 参考訳(メタデータ) (2024-02-28T10:09:04Z) - MORL-Prompt: An Empirical Analysis of Multi-Objective Reinforcement
Learning for Discrete Prompt Optimization [49.60729578316884]
RLベースの手法は、ユーザーが指定した報酬関数の集合を最大化するプロンプトの探索に使用できる。
現在の技術は報酬関数の平均値の最大化に重点を置いており、必ずしも報酬間の均衡を達成するプロンプトに繋がるとは限らない。
本稿では,RLに基づく離散的なプロンプト最適化に,多目的最適化のためのいくつかの手法を適用する。
論文 参考訳(メタデータ) (2024-02-18T21:25:09Z) - Enhancing Robotic Navigation: An Evaluation of Single and
Multi-Objective Reinforcement Learning Strategies [0.9208007322096532]
本研究では,ロボットが目的達成に向けて効果的に移動できるよう訓練するための単目的と多目的の強化学習法の比較分析を行った。
報酬関数を変更して報酬のベクターを返却し、それぞれ異なる目的に関連付けることで、ロボットはそれぞれの目標を効果的にバランスさせるポリシーを学ぶ。
論文 参考訳(メタデータ) (2023-12-13T08:00:26Z) - Dynamic value alignment through preference aggregation of multiple
objectives [0.0]
動的値アライメントの方法論として,アライメントすべき値が動的に変化する手法を提案する。
本稿では,複数の目的に対応するためにDeep $Q$-Learningを拡張し,単純化した2脚交点上で評価する。
論文 参考訳(メタデータ) (2023-10-09T17:07:26Z) - BOtied: Multi-objective Bayesian optimization with tied multivariate
ranks [49.85896045032822]
非支配解と最高多変量階との自然な関係を示し、これは合同累積分布関数(CDF)の最外層線と一致する。
我々はCDFインジケータに基づくBOtiedと呼ばれる取得関数を提案する。
論文 参考訳(メタデータ) (2023-06-01T04:50:06Z) - TMoE-P: Towards the Pareto Optimum for Multivariate Soft Sensors [7.236362889442992]
我々は,多変量ソフトセンサを多目的問題に再構成し,課題と最先端性能の両方に対処する。
負の伝達問題に対処するために,我々はまず,パラメータ共有のための客観的かつ客観的な専門家を利用したOMoEモジュールを提案する。
次に,シーソー現象に対処するため,最適ルーティングを実現するためのタスク認識型Mixture-of-Expertsフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-21T06:49:09Z) - Energy-Efficient Multi-Orchestrator Mobile Edge Learning [54.28419430315478]
Mobile Edge Learning(MEL)は、エッジデバイス上で機械学習(ML)モデルの分散トレーニングを特徴とする、協調学習パラダイムである。
MELでは、異なるデータセットで複数の学習タスクが共存する可能性がある。
本稿では, エネルギー消費, 精度, 解複雑性のトレードオフを容易にする軽量なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-02T07:37:10Z) - Provable Multi-Objective Reinforcement Learning with Generative Models [98.19879408649848]
目的の選好から最適な政策を学習する単一政策 MORL の問題について検討する。
既存の方法は、多目的決定プロセスの正確な知識のような強い仮定を必要とする。
モデルベースエンベロップ値 (EVI) と呼ばれる新しいアルゴリズムを提案し, 包含された多目的$Q$学習アルゴリズムを一般化する。
論文 参考訳(メタデータ) (2020-11-19T22:35:31Z) - Optimizing Interactive Systems via Data-Driven Objectives [70.3578528542663]
本稿では,観察されたユーザインタラクションから直接目的を推測する手法を提案する。
これらの推論は、事前の知識によらず、様々な種類のユーザー行動にまたがって行われる。
本稿では,これらの推定対象を最適化するために利用する新しいアルゴリズムであるInteractive System(ISO)を紹介する。
論文 参考訳(メタデータ) (2020-06-19T20:49:14Z) - A Distributional View on Multi-Objective Policy Optimization [24.690800846837273]
大規模不変な方法で目的の好みを設定することができる多目的強化学習アルゴリズムを提案する。
フレームワーク内で異なる好みを設定することで、非支配的なソリューションの空間を追跡できることを示す。
論文 参考訳(メタデータ) (2020-05-15T13:02:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。