論文の概要: FaiR-IoT: Fairness-aware Human-in-the-Loop Reinforcement Learning for
Harnessing Human Variability in Personalized IoT
- arxiv url: http://arxiv.org/abs/2103.16033v1
- Date: Tue, 30 Mar 2021 02:30:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 14:36:09.946075
- Title: FaiR-IoT: Fairness-aware Human-in-the-Loop Reinforcement Learning for
Harnessing Human Variability in Personalized IoT
- Title(参考訳): FaiR-IoT: パーソナライズドIoTにおける人的多様性を損なうためのフェアネス認識型ヒューマン・イン・ザ・ループ強化学習
- Authors: Salma Elmalaki (University of California, Irvine)
- Abstract要約: FaiR-IoTは、適応性と公平性を意識したヒューマンインザループIoTアプリケーションのための強化学習ベースのフレームワークです。
提案手法は, (i) 人型運転支援システム, (ii) 人型運転支援システムの2つの応用について検証した。
これらの2つのアプリケーションで得られた結果は、FaiR-IoTの一般性とパーソナライズされたエクスペリエンスを提供する能力を評価します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Thanks to the rapid growth in wearable technologies, monitoring complex human
context becomes feasible, paving the way to develop human-in-the-loop IoT
systems that naturally evolve to adapt to the human and environment state
autonomously. Nevertheless, a central challenge in designing such personalized
IoT applications arises from human variability. Such variability stems from the
fact that different humans exhibit different behaviors when interacting with
IoT applications (intra-human variability), the same human may change the
behavior over time when interacting with the same IoT application (inter-human
variability), and human behavior may be affected by the behaviors of other
people in the same environment (multi-human variability). To that end, we
propose FaiR-IoT, a general reinforcement learning-based framework for adaptive
and fairness-aware human-in-the-loop IoT applications. In FaiR-IoT, three
levels of reinforcement learning agents interact to continuously learn human
preferences and maximize the system's performance and fairness while taking
into account the intra-, inter-, and multi-human variability. We validate the
proposed framework on two applications, namely (i) Human-in-the-Loop Automotive
Advanced Driver Assistance Systems and (ii) Human-in-the-Loop Smart House.
Results obtained on these two applications validate the generality of FaiR-IoT
and its ability to provide a personalized experience while enhancing the
system's performance by 40%-60% compared to non-personalized systems and
enhancing the fairness of the multi-human systems by 1.5 orders of magnitude.
- Abstract(参考訳): ウェアラブル技術の急速な成長により、複雑なヒューマンコンテキストの監視が実現可能となり、人間と環境に自律的に適応するために自然に進化する、ループ内IoTシステムの開発方法が確立される。
それでも、このようなパーソナライズされたIoTアプリケーションを設計する上での中心的な課題は、人間の多様性にある。
このような変動性は、異なる人間がIoTアプリケーションと相互作用するとき(人間間変動性)、同じ人間が同じIoTアプリケーションと相互作用するとき(人間間変動性)に時間とともに振る舞いを変え、同じ環境にいる他の人の振る舞いに影響される可能性があるという事実に由来する。
そこで本研究では,適応性と公平性を考慮したiotアプリケーションのための汎用強化学習フレームワークfair-iotを提案する。
フェアオットでは、3段階の強化学習エージェントが相互作用して人間の好みを継続的に学習し、システムのパフォーマンスと公平性を最大化し、イントラ、インター、マルチヒューマンの変動性を考慮に入れる。
提案手法は, (i) 人型運転支援システム, (ii) 人型運転支援システムの2つの応用について検証した。
これらの2つのアプリケーションで得られた結果は、フェアオットの汎用性とパーソナライズされたエクスペリエンスの提供能力を検証すると同時に、非パーソナライズドシステムと比較してシステムのパフォーマンスを40%~60%向上させ、マルチヒューマンシステムの公平性を1.5桁向上させた。
関連論文リスト
- PAPER-HILT: Personalized and Adaptive Privacy-Aware Early-Exit for
Reinforcement Learning in Human-in-the-Loop Systems [0.6282068591820944]
強化学習(RL)は、多様なHuman-in-the-loop(HITL)アプリケーションにおいて、従来のルールベースシステムよりも好まれる方法になりつつある。
本稿では,HITL環境におけるプライバシ保護を意識した早期退避アプローチを活用した,革新的で適応的なRL戦略の開発に焦点をあてる。
論文 参考訳(メタデータ) (2024-03-09T10:24:12Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Generating Human-Centric Visual Cues for Human-Object Interaction
Detection via Large Vision-Language Models [59.611697856666304]
人-物対検出(Human-object Interaction:HOI)は、人-物対を検出し、その相互作用を予測することを目的とする。
我々はVLMを用いた3つのプロンプトを提案し、人間の複数の視点から画像内で人間中心の視覚的手がかりを生成する。
我々は,マルチトワーアーキテクチャを用いたトランスフォーマーベースのマルチモーダル融合モジュールを開発し,視覚的キュー機能をインスタンスと対話デコーダに統合する。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - FAIRO: Fairness-aware Adaptation in Sequential-Decision Making for
Human-in-the-Loop Systems [8.713442325649801]
本稿では,Human-in-the-Loop(HITL)適応における公平性を考慮したシーケンシャル意思決定のための新しいアルゴリズムを提案する。
特に、FAIROは、この複雑な公正タスクを、個々の人間の好みに基づいて適応的なサブタスクに分解する。
FAIROは、他の3つのアプリケーションと比較して、35.36%の公平性を向上できることを示す。
論文 参考訳(メタデータ) (2023-07-12T00:35:19Z) - ERUDITE: Human-in-the-Loop IoT for an Adaptive Personalized Learning
System [14.413929652259469]
本稿では,学習環境のためのヒューマン・イン・ザ・ループ型IoTシステムであるERUDITEを提案する。
脳信号を用いて人間の学習状態を推定することにより、ERUDITEは学習環境への適応をパーソナライズする。
論文 参考訳(メタデータ) (2023-03-07T23:54:35Z) - Human Decision Makings on Curriculum Reinforcement Learning with
Difficulty Adjustment [52.07473934146584]
我々は,カリキュラム強化学習結果を,人的意思決定プロセスから学ぶことで,難しすぎず,難しすぎるような望ましいパフォーマンスレベルに導く。
本システムは非常に並列化可能であり,大規模強化学習アプリケーションの訓練が可能となる。
強化学習性能は、人間の所望の難易度と同期してうまく調整できることが示される。
論文 参考訳(メタデータ) (2022-08-04T23:53:51Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Q-SMASH: Q-Learning-based Self-Adaptation of Human-Centered Internet of
Things [0.8602553195689512]
この記事では、人間中心環境におけるIoTオブジェクトの自己適応のための強化学習に基づくアプローチであるQ-SMASHについて述べる。
Q-SMASHは、人間の価値を尊重しながらユーザの行動を学ぶことを目的としている。
Q-SMASHの学習能力は、ユーザの行動変化に適応し、より正確な意思決定を可能にする。
論文 参考訳(メタデータ) (2021-07-13T09:41:05Z) - SMASH: a Semantic-enabled Multi-agent Approach for Self-adaptation of
Human-centered IoT [0.8602553195689512]
本稿では、人間中心環境におけるIoTアプリケーションの自己適応のためのマルチエージェントアプローチであるSMASHを提案する。
SMASHエージェントは、BDIエージェントモデルに基づく4層アーキテクチャを備え、人間の価値観とゴール推論、計画、行動を統合する。
論文 参考訳(メタデータ) (2021-05-31T12:33:27Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - Weak Human Preference Supervision For Deep Reinforcement Learning [48.03929962249475]
人間の好みによる現在の報酬学習は、報酬関数にアクセスせずに複雑な強化学習(RL)タスクを解決するために使用できる。
そこで我々は,人間の嗜好スケーリングモデルを開発した,弱い人間の嗜好監視フレームワークを提案する。
提案手法では,環境との相互作用の 0.01% 未満の人的フィードバックしか必要としない。
論文 参考訳(メタデータ) (2020-07-25T10:37:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。