論文の概要: Potential Impacts of Smart Homes on Human Behavior: A Reinforcement
Learning Approach
- arxiv url: http://arxiv.org/abs/2102.13307v1
- Date: Fri, 26 Feb 2021 05:33:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-01 21:03:10.969231
- Title: Potential Impacts of Smart Homes on Human Behavior: A Reinforcement
Learning Approach
- Title(参考訳): スマートホームが人間の行動に与える影響 : 強化学習アプローチ
- Authors: Shashi Suman, Ali Etemad, Francois Rivest
- Abstract要約: 強化学習型スマートホーム内で様々な活動を行うことができる一連のヒューマンモデルをシミュレートします。
我々は、汎用的なヒトモデルで訓練されたスマートホームが、ヒトモデルの熱的嗜好を予測および学習できることを示した。
- 参考スコア(独自算出の注目度): 8.422257363944295
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We aim to investigate the potential impacts of smart homes on human behavior.
To this end, we simulate a series of human models capable of performing various
activities inside a reinforcement learning-based smart home. We then
investigate the possibility of human behavior being altered as a result of the
smart home and the human model adapting to one-another. We design a semi-Markov
decision process human task interleaving model based on hierarchical
reinforcement learning that learns to make decisions to either pursue or leave
an activity. We then integrate our human model in the smart home which is based
on Q-learning. We show that a smart home trained on a generic human model is
able to anticipate and learn the thermal preferences of human models with
intrinsic rewards similar to the generic model. The hierarchical human model
learns to complete each activity and set optimal thermal settings for maximum
comfort. With the smart home, the number of time steps required to change the
thermal settings are reduced for the human models. Interestingly, we observe
that small variations in the human model reward structures can lead to the
opposite behavior in the form of unexpected switching between activities which
signals changes in human behavior due to the presence of the smart home.
- Abstract(参考訳): スマートホームが人間の行動に与える影響を調査することを目指しています。
そこで我々は,強化学習に基づくスマートホーム内で様々な活動を行うことができる一連の人間モデルをシミュレーションした。
そこで我々は,スマートホームと人間モデルが相互に適応することによって,人間の行動が変化する可能性を検討する。
我々は階層的強化学習に基づく半マルコフ決定プロセスのヒューマンタスクインターリービングモデルを設計し、アクティビティを追求または離脱するための意思決定を学習する。
そして、q-learningをベースにしたスマートホームに人間モデルを統合します。
汎用モデルを用いたスマートホームは,人間モデルに類似した本質的な報酬を持つ人間のモデルの熱的嗜好を予測し,学習することができることを示す。
階層的人間モデルは、各活動の完了を学習し、最大限の快適さのために最適な温度設定を設定する。
スマートホームでは、人間のモデルでは、温度設定を変更するために必要な時間ステップの数を減らします。
興味深いことに、人間のモデル報酬構造の小さな変化は、スマートホームの存在による人間の行動の変化を信号する活動間の予期せぬ切り替えの形で反対の行動につながる可能性があることを観察します。
関連論文リスト
- Can Language Models Learn to Skip Steps? [59.84848399905409]
我々は推論においてステップをスキップする能力について研究する。
効率を高めたり認知負荷を減らすためのステップをスキップする人間とは異なり、モデルはそのようなモチベーションを持っていない。
私たちの研究は、人間のようなステップスキッピング能力に関する最初の調査である。
論文 参考訳(メタデータ) (2024-11-04T07:10:24Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - User Behavior Simulation with Large Language Model based Agents [116.74368915420065]
LLMベースのエージェントフレームワークを提案し,実際のユーザ動作をシミュレートするサンドボックス環境を設計する。
実験結果から,本手法のシミュレーション行動は実人の行動に非常に近いことが判明した。
論文 参考訳(メタデータ) (2023-06-05T02:58:35Z) - Learning Goal-based Movement via Motivational-based Models in Cognitive
Mobile Robots [58.720142291102135]
人間は、強さと文脈に応じて行動を促進する必要がある。
また、各行動の知覚的快楽に関連する嗜好も作り出します。
これにより、意思決定がより複雑になり、コンテキストに応じてニーズと嗜好のバランスを取ることが求められます。
論文 参考訳(メタデータ) (2023-02-20T04:52:24Z) - Towards Modeling and Influencing the Dynamics of Human Learning [26.961274302321343]
私たちは、ロボットが持つ影響を理解し、それを活用して人々をよりよく支援し、人間のモデルが現実とより迅速に一致できるようにするための一歩を踏み出します。
我々のキーとなる考え方は、人間の学習を、新しい観察によって人間の内部モデルを進化させる非線形力学系としてモデル化することである。
次に、人間の学習力学モデルをロボット計画問題に組み込むことで、ロボットが人間の学習にどう影響するかを定式化する。
論文 参考訳(メタデータ) (2023-01-02T23:59:45Z) - Using Human Perception to Regularize Transfer Learning [12.916638258156953]
機械学習コミュニティの最近の傾向は、人間の知覚的測定に対する忠実度のあるモデルが視覚タスクに強く影響していることを示している。
本稿では,モデルにおける心理物理学ラベルの正規化力で伝達学習を改善する手法であるPERCEP-TLを紹介する。
視覚変換器を含む行動忠実度の高いモデルは、この正規化から最大1.9%のTop@1精度ポイントで改善されている。
論文 参考訳(メタデータ) (2022-11-15T04:18:43Z) - Modeling Human Behavior Part I -- Learning and Belief Approaches [0.0]
探索とフィードバックを通じて行動のモデルや方針を学ぶ手法に焦点を当てる。
次世代の自律的適応システムは、主にAIエージェントと人間がチームとして一緒に働く。
論文 参考訳(メタデータ) (2022-05-13T07:33:49Z) - Learning Theory of Mind via Dynamic Traits Attribution [59.9781556714202]
本稿では,過去のトラジェクトリからアクターの潜在特性ベクトルを生成するニューラルToMアーキテクチャを提案する。
この特性ベクトルは、予測ニューラルネットワークの高速重み付けスキームを介して予測機構を乗法的に変調する。
実験により,高速重量はエージェントの特性をモデル化し,マインドリーディング能力を向上させるために優れた誘導バイアスを与えることが示された。
論文 参考訳(メタデータ) (2022-04-17T11:21:18Z) - MIRROR: Differentiable Deep Social Projection for Assistive Human-Robot
Communication [18.711591679232367]
人体実験から人体モデルを簡単に学習する手法であるMIRRORを提案する。
また, CARLAシミュレータを用いて, (i) MIRRORが複雑な領域に拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-03-06T05:01:00Z) - Weak Human Preference Supervision For Deep Reinforcement Learning [48.03929962249475]
人間の好みによる現在の報酬学習は、報酬関数にアクセスせずに複雑な強化学習(RL)タスクを解決するために使用できる。
そこで我々は,人間の嗜好スケーリングモデルを開発した,弱い人間の嗜好監視フレームワークを提案する。
提案手法では,環境との相互作用の 0.01% 未満の人的フィードバックしか必要としない。
論文 参考訳(メタデータ) (2020-07-25T10:37:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。