論文の概要: Quick Question: Interrupting Users for Microtasks with Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2007.09515v1
- Date: Sat, 18 Jul 2020 20:26:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 05:25:41.862355
- Title: Quick Question: Interrupting Users for Microtasks with Reinforcement
Learning
- Title(参考訳): クイック質問:強化学習によるマイクロタスクのユーザ中断
- Authors: Bo-Jhang Ho, Bharathan Balaji, Mehmet Koseoglu, Sandeep Sandha, Siyou
Pei, Mani Srivastava
- Abstract要約: ユーザ不安を最小限に抑えつつ,マイクロタスクをスケジュールするために強化学習を用いる。
提案手法を教師付き学習手法と比較した。
両手法間のレスポンスの平均数は相反するが,RLは通知の取り消しを避けるのに有効である。
- 参考スコア(独自算出の注目度): 1.8295939550588234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human attention is a scarce resource in modern computing. A multitude of
microtasks vie for user attention to crowdsource information, perform momentary
assessments, personalize services, and execute actions with a single touch. A
lot gets done when these tasks take up the invisible free moments of the day.
However, an interruption at an inappropriate time degrades productivity and
causes annoyance. Prior works have exploited contextual cues and behavioral
data to identify interruptibility for microtasks with much success. With Quick
Question, we explore use of reinforcement learning (RL) to schedule microtasks
while minimizing user annoyance and compare its performance with supervised
learning. We model the problem as a Markov decision process and use Advantage
Actor Critic algorithm to identify interruptible moments based on context and
history of user interactions. In our 5-week, 30-participant study, we compare
the proposed RL algorithm against supervised learning methods. While the mean
number of responses between both methods is commensurate, RL is more effective
at avoiding dismissal of notifications and improves user experience over time.
- Abstract(参考訳): 人間の注意は現代のコンピューティングでは希少な資源である。
クラウドソース情報へのユーザの注意を喚起し、瞬間的な評価を行い、サービスをパーソナライズし、単一のタッチでアクションを実行します。
これらのタスクが、その日の目に見えない自由な瞬間を取り上げると、多くのことが起こります。
しかし、不適切なタイミングでの中断は生産性を低下させ、不安を引き起こす。
以前の研究では、コンテキストの手がかりと行動データを活用して、マイクロタスクの割り込み可能性を特定し、大きな成功を収めている。
In Quick Questionでは、マイクロタスクのスケジューリングに強化学習(RL)を用い、ユーザの不安を最小限に抑えながら、その性能を教師付き学習と比較する。
我々はマルコフ決定プロセスとして問題をモデル化し、アドバンテージアクター批判アルゴリズムを用いてユーザインタラクションのコンテキストと履歴に基づいて割り込み可能なモーメントを識別する。
5週間の30名の被験者を対象に,提案したRLアルゴリズムと教師あり学習手法を比較した。
両手法間のレスポンスの平均数は相反するが,RLは通知の取り消しを回避し,時間の経過とともにユーザエクスペリエンスを向上する。
関連論文リスト
- Reinforcement Learning with Action Sequence for Data-Efficient Robot Learning [62.3886343725955]
本稿では,行動列上のQ値を出力する批判ネットワークを学習する新しいRLアルゴリズムを提案する。
提案アルゴリズムは,現在および将来の一連の行動の実行結果を学習するために値関数を明示的に訓練することにより,ノイズのある軌道から有用な値関数を学習することができる。
論文 参考訳(メタデータ) (2024-11-19T01:23:52Z) - Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - Active Learning Based Fine-Tuning Framework for Speech Emotion
Recognition [20.28850074164053]
音声感情認識(SER)は、人間と機械の相互作用におけるその応用に注目が集まっている。
既存のSER手法では、事前学習した音声認識タスクと下流SERタスクとの間の情報ギャップを無視し、サブ最適性能をもたらす。
本稿では,タスク適応事前学習(TAPT)とAL手法を活用して性能と効率を向上させる,SERのためのアクティブラーニング(AL)ベースのファインチューニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-30T07:23:29Z) - Multitask Learning with No Regret: from Improved Confidence Bounds to
Active Learning [79.07658065326592]
推定タスクの不確実性の定量化は、オンラインやアクティブな学習など、多くの下流アプリケーションにとって重要な課題である。
タスク間の類似性やタスクの特徴を学習者に提供できない場合、課題設定において新しいマルチタスク信頼区間を提供する。
本稿では,このパラメータを事前に知らないまま,このような改善された後悔を実現する新しいオンライン学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-03T13:08:09Z) - Multi-Task Consistency for Active Learning [18.794331424921946]
不整合に基づくアクティブラーニングは、アノテーションに対する情報的サンプルの選択に有効であることが証明されている。
本稿では,オブジェクト検出とセマンティックセグメンテーションという2つの複合視覚タスクのための,新しいマルチタスク能動学習戦略を提案する。
提案手法は、利用可能なデータのわずか67%を使用して、完全にトレーニングされたパフォーマンスの95%を達成している。
論文 参考訳(メタデータ) (2023-06-21T17:34:31Z) - Transfer Learning in Conversational Analysis through Reusing
Preprocessing Data as Supervisors [52.37504333689262]
単一タスク学習におけるノイズの多いラベルの使用は、過度に適合するリスクを増大させる。
補助的なタスクは、同じトレーニング中に一次タスク学習のパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2021-12-02T08:40:42Z) - On the importance of cross-task features for class-incremental learning [14.704888854064501]
クラス増分学習では、限られたリソースを持つエージェントが一連の分類タスクを学習する必要がある。
タスクIDを推論時に利用できるタスクインクリメンタル学習との主な違いは、学習者がタスク間の差別を行う必要があることである。
論文 参考訳(メタデータ) (2021-06-22T17:03:15Z) - PEBBLE: Feedback-Efficient Interactive Reinforcement Learning via
Relabeling Experience and Unsupervised Pre-training [94.87393610927812]
我々は、フィードバックと非政治学習の両方の長所を生かした、非政治的、インタラクティブな強化学習アルゴリズムを提案する。
提案手法は,従来ヒト・イン・ザ・ループ法で検討されていたよりも複雑度の高いタスクを学習可能であることを実証する。
論文 参考訳(メタデータ) (2021-06-09T14:10:50Z) - Reset-Free Reinforcement Learning via Multi-Task Learning: Learning
Dexterous Manipulation Behaviors without Human Intervention [67.1936055742498]
マルチタスク学習は、リセットフリーの学習スキームをはるかに複雑な問題に効果的にスケールできることを示す。
この研究は、人間の介入なしにRLを用いて現実世界での巧妙な操作行動を学ぶ能力を示す。
論文 参考訳(メタデータ) (2021-04-22T17:38:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。