論文の概要: Cognitive Exoskeleton: Augmenting Human Cognition with an AI-Mediated Intelligent Visual Feedback
- arxiv url: http://arxiv.org/abs/2508.00846v1
- Date: Wed, 09 Jul 2025 02:12:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-10 09:30:49.25851
- Title: Cognitive Exoskeleton: Augmenting Human Cognition with an AI-Mediated Intelligent Visual Feedback
- Title(参考訳): 認知外骨格:AIを利用したインテリジェントな視覚フィードバックによる人間の認知の増強
- Authors: Songlin Xu, Xinyu Zhang,
- Abstract要約: 我々は、深層強化学習を活用し、適応的な時間圧力フィードバックを提供することで、算術的なタスクにおけるユーザパフォーマンスを向上させる。
タイムプレッシャーフィードバックは、ユーザの注意と不安を調節することによって、ユーザパフォーマンスを改善するか、劣化させる可能性がある。
本稿では,他のシミュレーションDRLエージェントと対話してユーザパフォーマンスを制御するために,規制DRLエージェントを訓練するデュアルDRLフレームワークを提案する。
- 参考スコア(独自算出の注目度): 11.149593958041937
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we introduce an AI-mediated framework that can provide intelligent feedback to augment human cognition. Specifically, we leverage deep reinforcement learning (DRL) to provide adaptive time pressure feedback to improve user performance in a math arithmetic task. Time pressure feedback could either improve or deteriorate user performance by regulating user attention and anxiety. Adaptive time pressure feedback controlled by a DRL policy according to users' real-time performance could potentially solve this trade-off problem. However, the DRL training and hyperparameter tuning may require large amounts of data and iterative user studies. Therefore, we propose a dual-DRL framework that trains a regulation DRL agent to regulate user performance by interacting with another simulation DRL agent that mimics user cognition behaviors from an existing dataset. Our user study demonstrates the feasibility and effectiveness of the dual-DRL framework in augmenting user performance, in comparison to the baseline group.
- Abstract(参考訳): 本稿では,人間の認知力を高めるための知的なフィードバックを提供する,AIを利用したフレームワークを提案する。
具体的には、深部強化学習(DRL)を活用し、適応的な時間圧力フィードバックを提供することにより、算術演算タスクにおけるユーザパフォーマンスを向上させる。
タイムプレッシャーフィードバックは、ユーザの注意と不安を調節することによって、ユーザパフォーマンスを改善するか、劣化させる可能性がある。
DRLポリシーによって制御される適応的な時間圧力フィードバックは、ユーザのリアルタイムパフォーマンスに応じて、このトレードオフ問題を解決する可能性がある。
しかし、DRLトレーニングとハイパーパラメータチューニングは大量のデータと反復的なユーザスタディを必要とする可能性がある。
そこで本研究では,既存のデータセットからユーザ認識動作を模倣する別のシミュレーションDRLエージェントと対話することで,ユーザパフォーマンスを制御するために,規制DRLエージェントを訓練するデュアルDRLフレームワークを提案する。
本研究は,ベースライン群と比較してユーザパフォーマンスを向上する上で,デュアルDRLフレームワークの有効性と有効性を示すものである。
関連論文リスト
- Error-related Potential driven Reinforcement Learning for adaptive Brain-Computer Interfaces [0.0]
本研究では、強化学習(RL)を用いた適応型ErrPベースのBCI手法を提案する。
ErrPと運動画像を組み合わせたRL駆動適応フレームワークの実現可能性を示す。
RLエージェントはユーザインタラクションからコントロールポリシを学び、データセット間で堅牢なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-02-25T19:27:51Z) - Model-enhanced Contrastive Reinforcement Learning for Sequential
Recommendation [28.218427886174506]
モデル強化コントラスト強化学習(MCRL)という新しいRLレコメンデータを提案する。
一方、ユーザの長期エンゲージメントを推定するためのバリュー関数と、過大評価問題を緩和するための保守的なバリュー学習機構を学習する。
実験により,提案手法は既存のオフラインRL法と自己教師付きRL法を著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-25T11:43:29Z) - Hybrid Reinforcement Learning for Optimizing Pump Sustainability in
Real-World Water Distribution Networks [55.591662978280894]
本稿では,実世界の配水ネットワーク(WDN)のリアルタイム制御を強化するために,ポンプスケジューリング最適化問題に対処する。
我々の主な目的は、エネルギー消費と運用コストを削減しつつ、物理的な運用上の制約を遵守することである。
進化に基づくアルゴリズムや遺伝的アルゴリズムのような伝統的な最適化手法は、収束保証の欠如によってしばしば不足する。
論文 参考訳(メタデータ) (2023-10-13T21:26:16Z) - FIRE: A Failure-Adaptive Reinforcement Learning Framework for Edge Computing Migrations [52.85536740465277]
FIREは、エッジコンピューティングのディジタルツイン環境でRLポリシーをトレーニングすることで、まれなイベントに適応するフレームワークである。
ImREは重要なサンプリングに基づくQ-ラーニングアルゴリズムであり、希少事象をその値関数への影響に比例してサンプリングする。
FIREは故障時にバニラRLやグリーディベースラインと比較してコストを削減できることを示す。
論文 参考訳(メタデータ) (2022-09-28T19:49:39Z) - Mastering the Unsupervised Reinforcement Learning Benchmark from Pixels [112.63440666617494]
強化学習アルゴリズムは成功するが、エージェントと環境の間の大量の相互作用を必要とする。
本稿では,教師なしモデルベースRLを用いてエージェントを事前学習する手法を提案する。
我々はReal-Word RLベンチマークにおいて、適応中の環境摂動に対する抵抗性を示唆し、堅牢な性能を示す。
論文 参考訳(メタデータ) (2022-09-24T14:22:29Z) - Retrieval-Augmented Reinforcement Learning [63.32076191982944]
過去の経験のデータセットを最適な行動にマップするために、ネットワークをトレーニングします。
検索プロセスは、現在のコンテキストで有用なデータセットから情報を取得するために訓練される。
検索強化R2D2はベースラインR2D2エージェントよりもかなり高速に学習し,より高いスコアを得ることを示す。
論文 参考訳(メタデータ) (2022-02-17T02:44:05Z) - Accelerating Reinforcement Learning Agent with EEG-based Implicit Human
Feedback [10.138798960466222]
人間のフィードバックによる強化学習(RL)エージェントは、学習のさまざまな側面を劇的に改善することができる。
従来の方法では、人間の観察者が明示的に入力をし、RLエージェントの学習プロセスのループで人間を負担する必要があった。
脳波による人間の内因性反応を、エラー関連電位(ErrP)の形で暗黙の(そして自然な)フィードバックとして捉えることを検討する。
論文 参考訳(メタデータ) (2020-06-30T03:13:37Z) - AWAC: Accelerating Online Reinforcement Learning with Offline Datasets [84.94748183816547]
提案手法は,従来の実演データとオンライン体験を組み合わせることで,スキルの素早い学習を可能にする。
以上の結果から,事前データを組み込むことで,ロボット工学を実践的な時間スケールまで学習するのに要する時間を短縮できることが示唆された。
論文 参考訳(メタデータ) (2020-06-16T17:54:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。