論文の概要: Multi-objective Reinforcement Learning based approach for User-Centric
Power Optimization in Smart Home Environments
- arxiv url: http://arxiv.org/abs/2009.13854v1
- Date: Tue, 29 Sep 2020 08:28:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 07:04:33.126278
- Title: Multi-objective Reinforcement Learning based approach for User-Centric
Power Optimization in Smart Home Environments
- Title(参考訳): スマートホーム環境におけるユーザ中心パワー最適化のための多目的強化学習手法
- Authors: Saurabh Gupta, Siddhant Bhambri, Karan Dhingra, Arun Balaji Buduru,
Ponnurangam Kumaraguru
- Abstract要約: 本稿では,消費電力を最小化し,ユーザ満足度を最大化することを目的とした,新たな多目的強化学習フレームワークを提案する。
このフレームワークは、2つの目標間のトレードオフを探求し、より良い電力管理ポリシーに収束する。
本研究は, 一定間隔でデバイスモードが変動するデバイスを最適化するために, 定期的に使用するデバイスを対象とすべきであることを示す。
- 参考スコア(独自算出の注目度): 15.782737651946569
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Smart homes require every device inside them to be connected with each other
at all times, which leads to a lot of power wastage on a daily basis. As the
devices inside a smart home increase, it becomes difficult for the user to
control or operate every individual device optimally. Therefore, users
generally rely on power management systems for such optimization but often are
not satisfied with the results. In this paper, we present a novel
multi-objective reinforcement learning framework with two-fold objectives of
minimizing power consumption and maximizing user satisfaction. The framework
explores the trade-off between the two objectives and converges to a better
power management policy when both objectives are considered while finding an
optimal policy. We experiment on real-world smart home data, and show that the
multi-objective approaches: i) establish trade-off between the two objectives,
ii) achieve better combined user satisfaction and power consumption than
single-objective approaches. We also show that the devices that are used
regularly and have several fluctuations in device modes at regular intervals
should be targeted for optimization, and the experiments on data from other
smart homes fetch similar results, hence ensuring transfer-ability of the
proposed framework.
- Abstract(参考訳): スマートホームは、すべてのデバイスが常時接続される必要があるため、毎日多くの電力が浪費される。
スマートホーム内のデバイスが増加するにつれて、ユーザが個々のデバイスを最適に制御したり操作したりすることが困難になる。
そのため、ユーザは通常、最適化のために電力管理システムに頼るが、結果に満足しないことが多い。
本稿では,消費電力の最小化とユーザ満足度の最大化という2つの目的を持った,新たな多目的強化学習フレームワークを提案する。
この枠組みは、2つの目標間のトレードオフを探求し、最適な政策を見つけながら両方の目標が検討されるときに、より良い電力管理政策に収束する。
私たちは実世界のスマートホームデータを実験し、マルチ目的のアプローチを示します。
一 二つの目的の間にトレードオフを確立すること
二 単目的アプローチよりもユーザ満足度と消費電力の組合せが優れていること。
また,定期的に使用され,一定間隔でデバイスモードが変動するデバイスは最適化を目標とすべきであり,他のスマートホームからのデータ実験も同様の結果を得るため,提案フレームワークの転送可能性を確保することを実証した。
関連論文リスト
- SPA-Bench: A Comprehensive Benchmark for SmartPhone Agent Evaluation [89.24729958546168]
We present SPA-Bench, a comprehensive SmartPhone Agent Benchmark designed to evaluate (M)LLM-based agent。
SPA-Benchは3つの重要なコントリビューションを提供している。 英語と中国語の両方で、システムとサードパーティアプリをカバーする多様なタスクセットで、日々のルーチンで一般的に使用される機能に焦点を当てている。
複数の次元にまたがってエージェントのパフォーマンスを自動的に評価する新しい評価パイプラインは、タスク完了とリソース消費に関連する7つの指標を含んでいる。
論文 参考訳(メタデータ) (2024-10-19T17:28:48Z) - Multi-Objective Deep Reinforcement Learning for Optimisation in Autonomous Systems [3.2826250607043796]
MORL(Multi-Objective Reinforcement Learning)技術は存在するが、実世界のASシステムではなくRLベンチマークで採用されている。
本研究では,DWN(Deep W-Learning)と呼ばれるMORL技術を用いて,実行時性能最適化のための最適構成を求める。
我々はDWNとepsilon-greedyアルゴリズムとDeep Q-Networksの2つの単目的最適化実装を比較した。
論文 参考訳(メタデータ) (2024-08-02T11:16:09Z) - Deep Pareto Reinforcement Learning for Multi-Objective Recommender Systems [60.91599969408029]
複数の目的を同時に最適化することは、レコメンデーションプラットフォームにとって重要なタスクです。
既存の多目的推薦システムは、そのような動的な関係を体系的に考慮していない。
論文 参考訳(メタデータ) (2024-07-04T02:19:49Z) - Online Pareto-Optimal Decision-Making for Complex Tasks using Active Inference [14.470714123175972]
本稿では,多目的強化学習のための新しいフレームワークを提案する。
安全なタスク実行を保証し、目的間のトレードオフを最適化し、ユーザの好みに準拠します。
操作と移動ロボットのケーススタディとベンチマークは、我々のフレームワークが他の方法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-06-17T18:03:45Z) - Dynamic value alignment through preference aggregation of multiple
objectives [0.0]
動的値アライメントの方法論として,アライメントすべき値が動的に変化する手法を提案する。
本稿では,複数の目的に対応するためにDeep $Q$-Learningを拡張し,単純化した2脚交点上で評価する。
論文 参考訳(メタデータ) (2023-10-09T17:07:26Z) - Interactive Hyperparameter Optimization in Multi-Objective Problems via
Preference Learning [65.51668094117802]
我々は多目的機械学習(ML)に適した人間中心型対話型HPO手法を提案する。
ユーザが自分のニーズに最も適した指標を推測する代わりに、私たちのアプローチは自動的に適切な指標を学習します。
論文 参考訳(メタデータ) (2023-09-07T09:22:05Z) - TMoE-P: Towards the Pareto Optimum for Multivariate Soft Sensors [7.236362889442992]
我々は,多変量ソフトセンサを多目的問題に再構成し,課題と最先端性能の両方に対処する。
負の伝達問題に対処するために,我々はまず,パラメータ共有のための客観的かつ客観的な専門家を利用したOMoEモジュールを提案する。
次に,シーソー現象に対処するため,最適ルーティングを実現するためのタスク認識型Mixture-of-Expertsフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-21T06:49:09Z) - Energy-Efficient Multi-Orchestrator Mobile Edge Learning [54.28419430315478]
Mobile Edge Learning(MEL)は、エッジデバイス上で機械学習(ML)モデルの分散トレーニングを特徴とする、協調学習パラダイムである。
MELでは、異なるデータセットで複数の学習タスクが共存する可能性がある。
本稿では, エネルギー消費, 精度, 解複雑性のトレードオフを容易にする軽量なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-02T07:37:10Z) - Provable Multi-Objective Reinforcement Learning with Generative Models [98.19879408649848]
目的の選好から最適な政策を学習する単一政策 MORL の問題について検討する。
既存の方法は、多目的決定プロセスの正確な知識のような強い仮定を必要とする。
モデルベースエンベロップ値 (EVI) と呼ばれる新しいアルゴリズムを提案し, 包含された多目的$Q$学習アルゴリズムを一般化する。
論文 参考訳(メタデータ) (2020-11-19T22:35:31Z) - Optimizing Interactive Systems via Data-Driven Objectives [70.3578528542663]
本稿では,観察されたユーザインタラクションから直接目的を推測する手法を提案する。
これらの推論は、事前の知識によらず、様々な種類のユーザー行動にまたがって行われる。
本稿では,これらの推定対象を最適化するために利用する新しいアルゴリズムであるInteractive System(ISO)を紹介する。
論文 参考訳(メタデータ) (2020-06-19T20:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。