論文の概要: First Contact: Unsupervised Human-Machine Co-Adaptation via Mutual
Information Maximization
- arxiv url: http://arxiv.org/abs/2205.12381v1
- Date: Tue, 24 May 2022 21:57:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-29 01:48:11.245758
- Title: First Contact: Unsupervised Human-Machine Co-Adaptation via Mutual
Information Maximization
- Title(参考訳): first contact: 相互情報最大化による教師なしヒューマンマシン協調
- Authors: Siddharth Reddy, Sergey Levine, Anca D. Dragan
- Abstract要約: 我々はこのアイデアを、インターフェースを最適化するための完全に教師なしの目的として定式化する。
タイピング,シミュレートされたロボットの制御,ゲームプレイなど,様々なキーボードとアイアイのインタフェースを運用しているユーザの540K例について,観察的研究を行った。
以上の結果から,我々の相互情報スコアは,様々な領域における真真正タスク完了メトリクスの予測値であることが示唆された。
- 参考スコア(独自算出の注目度): 112.40598205054994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How can we train an assistive human-machine interface (e.g., an
electromyography-based limb prosthesis) to translate a user's raw command
signals into the actions of a robot or computer when there is no prior mapping,
we cannot ask the user for supervision in the form of action labels or reward
feedback, and we do not have prior knowledge of the tasks the user is trying to
accomplish? The key idea in this paper is that, regardless of the task, when an
interface is more intuitive, the user's commands are less noisy. We formalize
this idea as a completely unsupervised objective for optimizing interfaces: the
mutual information between the user's command signals and the induced state
transitions in the environment. To evaluate whether this mutual information
score can distinguish between effective and ineffective interfaces, we conduct
an observational study on 540K examples of users operating various keyboard and
eye gaze interfaces for typing, controlling simulated robots, and playing video
games. The results show that our mutual information scores are predictive of
the ground-truth task completion metrics in a variety of domains, with an
average Spearman's rank correlation of 0.43. In addition to offline evaluation
of existing interfaces, we use our unsupervised objective to learn an interface
from scratch: we randomly initialize the interface, have the user attempt to
perform their desired tasks using the interface, measure the mutual information
score, and update the interface to maximize mutual information through
reinforcement learning. We evaluate our method through a user study with 12
participants who perform a 2D cursor control task using a perturbed mouse, and
an experiment with one user playing the Lunar Lander game using hand gestures.
The results show that we can learn an interface from scratch, without any user
supervision or prior knowledge of tasks, in under 30 minutes.
- Abstract(参考訳): ユーザの生のコマンド信号をロボットやコンピュータの動作に変換するための補助的ヒューマンマシンインタフェース(例えば、筋電図に基づく手足義肢義肢義肢)を、事前のマッピングがない場合、ユーザに対して、アクションラベルや報酬フィードバックの形で監督を依頼することはできず、ユーザが達成しようとしているタスクについて事前の知識を持っていないか。
この論文の重要な考え方は、タスクに関係なく、インタフェースがより直感的である場合、ユーザのコマンドはノイズが少ないことである。
我々は、このアイデアをインタフェースを最適化するための完全に教師なしの目的として定式化した: ユーザのコマンド信号と環境における誘導状態遷移の間の相互情報である。
この相互情報スコアが効果的なインターフェースと非効果的なインターフェースを区別できるかどうかを評価するため,本研究では,キーボードとアイアイのインターフェースを多用した540K例の観察実験を行った。
その結果,我々の相互情報スコアは様々な領域におけるタスク完了度指標の予測値であり,平均スピアマンのランク相関は0.13であった。
インターフェイスをランダムに初期化し、ユーザに対して、インターフェースを使って必要なタスクを実行させようとし、相互情報スコアを測定し、インターフェイスを更新して、強化学習を通じて相互情報を最大化します。
本手法は,摂動マウスを用いた2次元カーソル制御タスクを行う12名の被験者によるユーザスタディと,ハンドジェスチャーを用いたLunar Landerゲームプレイ実験により評価した。
その結果,30分以内でユーザ管理やタスクの事前知識を必要とせずに,インターフェースをゼロから学習できることが判明した。
関連論文リスト
- Identifying User Goals from UI Trajectories [19.492331502146886]
本稿では,観測されたUI軌道から目標を識別するタスクを紹介する。
2つのタスク記述が特定のUI環境内でパラフレーズ化されているかどうかを評価するための新しい評価基準を提案する。
計測値とこれらのデータセットを用いて、人間のパフォーマンスと最先端モデルの比較実験を行った。
論文 参考訳(メタデータ) (2024-06-20T13:46:10Z) - Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - Bootstrapping Adaptive Human-Machine Interfaces with Offline
Reinforcement Learning [82.91837418721182]
適応インターフェイスは、ユーザがシーケンシャルな意思決定タスクを実行するのに役立つ。
近年のヒューマン・イン・ザ・ループ・機械学習の進歩により、ユーザとの対話によってこのようなシステムが改善されている。
本稿では,生のコマンド信号をアクションにマッピングするインタフェースを訓練するための強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-07T16:52:27Z) - MUG: Interactive Multimodal Grounding on User Interfaces [12.035123646959669]
本稿では,ユーザとエージェントがインタフェース画面上で協調作業を行うマルチモーダルグラウンドのための対話型タスクMUGを提案する。
ユーザがコマンドを与え、エージェントがコマンドに応答する。MUGはエージェントの応答を見る際に、エージェントがそのアクションを洗練または修正するための追加コマンドを与えるように、複数のラウンドのインタラクションを可能にする。
論文 参考訳(メタデータ) (2022-09-29T21:08:18Z) - X2T: Training an X-to-Text Typing Interface with Online Learning from
User Feedback [83.95599156217945]
ユーザがキーボードを操作できないが、他の入力を供給できる、補助型タイピングアプリケーションに焦点を当てる。
標準メソッドは、ユーザ入力の固定データセット上でモデルをトレーニングし、そのミスから学ばない静的インターフェースをデプロイする。
このようなインターフェースが時間の経過とともに改善されるようなシンプルなアイデアを,ユーザによる最小限の努力で検討する。
論文 参考訳(メタデータ) (2022-03-04T00:07:20Z) - ASHA: Assistive Teleoperation via Human-in-the-Loop Reinforcement
Learning [91.58711082348293]
オンラインユーザからのフィードバックからシステムのパフォーマンスに関する強化学習は、この問題に対する自然な解決策である。
このアプローチでは、特にフィードバックが不足している場合には、ループ内の大量のトレーニングデータが必要になる傾向があります。
疎いユーザフィードバックから効率的に学習する階層型ソリューションを提案する。
論文 参考訳(メタデータ) (2022-02-05T02:01:19Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。