論文の概要: Eye-Tracking-Driven Control in Daily Task Assistance for Assistive Robotic Arms
- arxiv url: http://arxiv.org/abs/2601.17404v1
- Date: Sat, 24 Jan 2026 10:14:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.932464
- Title: Eye-Tracking-Driven Control in Daily Task Assistance for Assistive Robotic Arms
- Title(参考訳): 補助ロボットアームの日常作業支援における視線追跡駆動制御
- Authors: Anke Fischer-Janzen, Thomas M. Wendt, Kristof Van Laerhoven,
- Abstract要約: 共有制御は、ユーザの作業量を削減し、ロボットの自律性を高めることにより、人間とロボットのインタラクションを改善する。
現在の視線追跡駆動アプローチはいくつかの課題に直面している。
本稿では、重度身体障害者の日常業務を個別に行うことを目的とした視線追跡駆動制御フレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.3605487171648054
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Shared control improves Human-Robot Interaction by reducing the user's workload and increasing the robot's autonomy. It allows robots to perform tasks under the user's supervision. Current eye-tracking-driven approaches face several challenges. These include accuracy issues in 3D gaze estimation and difficulty interpreting gaze when differentiating between multiple tasks. We present an eye-tracking-driven control framework, aimed at enabling individuals with severe physical disabilities to perform daily tasks independently. Our system uses task pictograms as fiducial markers combined with a feature matching approach that transmits data of the selected object to accomplish necessary task related measurements with an eye-in-hand configuration. This eye-tracking control does not require knowledge of the user's position in relation to the object. The framework correctly interpreted object and task selection in up to 97.9% of measurements. Issues were found in the evaluation, that were improved and shared as lessons learned. The open-source framework can be adapted to new tasks and objects due to the integration of state-of-the-art object detection models.
- Abstract(参考訳): 共有制御は、ユーザの作業量を削減し、ロボットの自律性を高めることにより、人間とロボットのインタラクションを改善する。
ロボットはユーザーの監督下でタスクを実行することができる。
現在の視線追跡駆動アプローチはいくつかの課題に直面している。
これらには、3次元視線推定における精度の問題と、複数のタスク間の差分における視線解釈の難しさが含まれる。
本稿では、重度身体障害者の日常業務を個別に行うことを目的とした視線追跡駆動制御フレームワークを提案する。
本システムでは,タスクピクトグラムをフィデューシャルマーカーとして使用し,特徴マッチング手法と組み合わせて,必要なタスク関連測定を手作業で行う。
このアイトラッキング制御は、対象物に関するユーザの位置に関する知識を必要としない。
フレームワークは、最大97.9%の測定でオブジェクトとタスクの選択を正しく解釈した。
評価の結果は改善され,教訓として共有された。
オープンソースのフレームワークは、最先端のオブジェクト検出モデルの統合により、新しいタスクやオブジェクトに適応することができる。
関連論文リスト
- Intent at a Glance: Gaze-Guided Robotic Manipulation via Foundation Models [5.731055678884616]
Eye Eyeは、高速で、非侵襲的で、意図に富んだ入力モダリティを提供する。
我々は,エゴ中心の視線追跡と視覚言語モデルを利用して,ユーザの意図を推測し,ロボット操作タスクを自律的に実行するシステムであるGAMMAを提案する。
結果は、GAMAが堅牢で直感的で汎用的な制御を提供し、基礎モデルを組み合わせる可能性と、自然でスケーラブルなロボット自律性を見つめることを強調している。
論文 参考訳(メタデータ) (2026-01-08T19:33:03Z) - Multi-task Learning for Real-time Autonomous Driving Leveraging
Task-adaptive Attention Generator [15.94714567272497]
我々は,モノクロ3次元物体検出,セマンティックセグメンテーション,深度推定という3つの重要な自律運転タスクに適応する新しいリアルタイムマルチタスクネットワークを提案する。
マルチタスク学習の課題であるネガティブトランスファーの課題に対処するために,タスク適応型アテンションジェネレータを導入する。
私たちの厳格に最適化されたネットワークは、Cityscapes-3Dデータセットでテストすると、さまざまなベースラインモデルよりも一貫して優れています。
論文 参考訳(メタデータ) (2024-03-06T05:04:40Z) - Exposing and Addressing Cross-Task Inconsistency in Unified
Vision-Language Models [80.23791222509644]
一貫性のないAIモデルは、人間のユーザーによって不安定で信頼できないと見なされている。
最先端のビジョン言語モデルは、タスク間の驚くほど高い一貫性のない振る舞いに悩まされている。
本稿では,大規模で自動生成されるクロスタスクコントラスト集合上で計算されたランク相関に基づく補助訓練目標を提案する。
論文 参考訳(メタデータ) (2023-03-28T16:57:12Z) - Task Compass: Scaling Multi-task Pre-training with Task Prefix [122.49242976184617]
既存の研究では、大規模教師付きタスクによるマルチタスク学習がタスク間の負の効果に悩まされていることが示されている。
タスク間の関係を探索するために,タスクプレフィックスガイド付きマルチタスク事前学習フレームワークを提案する。
我々のモデルは、幅広いタスクの強力な基盤バックボーンとして機能するだけでなく、タスク関係を分析するための探索ツールとしても実現可能である。
論文 参考訳(メタデータ) (2022-10-12T15:02:04Z) - Continual Object Detection via Prototypical Task Correlation Guided
Gating Mechanism [120.1998866178014]
pRotOtypeal taSk corrElaTion guided gaTingAnism (ROSETTA)による連続物体検出のためのフレキシブルなフレームワークを提案する。
具体的には、統一されたフレームワークはすべてのタスクで共有され、タスク対応ゲートは特定のタスクのサブモデルを自動的に選択するために導入されます。
COCO-VOC、KITTI-Kitchen、VOCのクラスインクリメンタル検出、および4つのタスクの逐次学習の実験により、ROSETTAが最先端のパフォーマンスを得ることが示された。
論文 参考訳(メタデータ) (2022-05-06T07:31:28Z) - Multi-Agent Embodied Visual Semantic Navigation with Scene Prior
Knowledge [42.37872230561632]
視覚的セマンティックナビゲーションでは、ロボットは自我中心の視覚的観察を行い、目標のクラスラベルが与えられる。
既存のモデルのほとんどは単一エージェントナビゲーションにのみ有効であり、より複雑なタスクを完了すると、単一のエージェントは低効率でフォールトトレランスが低い。
本稿では,複数のエージェントが協調して複数の対象物を見つけるマルチエージェント視覚意味ナビゲーションを提案する。
論文 参考訳(メタデータ) (2021-09-20T13:31:03Z) - Learning Visually Guided Latent Actions for Assistive Teleoperation [9.75385535829762]
視覚入力に潜伏埋め込みを条件とした補助ロボットを開発。
少量の安価で収集しやすい構造データに予め訓練されたオブジェクト検出器を組み込むことにより、i)現在のコンテキストを正確に認識し、ii)新しいオブジェクトやタスクへの制御埋め込みを一般化する。
論文 参考訳(メタデータ) (2021-05-02T23:58:28Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Modeling Long-horizon Tasks as Sequential Interaction Landscapes [75.5824586200507]
本稿では,一連のデモビデオからのみ,サブタスク間の依存関係と遷移を学習するディープラーニングネットワークを提案する。
これらのシンボルは、画像観察から直接学習し、予測できることが示される。
我々は,(1)人間によって実行されるパズル片のブロック積み重ね,(2)物体のピック・アンド・プレイスとキャビネットドアを7-DoFロボットアームで滑らせるロボット操作という,2つの長期水平作業において,我々の枠組みを評価する。
論文 参考訳(メタデータ) (2020-06-08T18:07:18Z) - Taskology: Utilizing Task Relations at Scale [28.09712466727001]
共同で訓練することで,タスクの集合間の固有の関係を活用できることが示される。
タスク間の関係を明確に活用することで、パフォーマンスが向上し、ラベル付きデータの必要性が劇的に低減される。
本稿では, 深度と正規予測, セマンティックセグメンテーション, 3次元運動とエゴモーション推定, および点雲における物体追跡と3次元検出という, タスクのサブセットについて示す。
論文 参考訳(メタデータ) (2020-05-14T22:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。