論文の概要: Does Embodiment Matter to Biomechanics and Function? A Comparative Analysis of Head-Mounted and Hand-Held Assistive Devices for Individuals with Blindness and Low Vision
- arxiv url: http://arxiv.org/abs/2509.18391v1
- Date: Mon, 22 Sep 2025 20:23:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.568672
- Title: Does Embodiment Matter to Biomechanics and Function? A Comparative Analysis of Head-Mounted and Hand-Held Assistive Devices for Individuals with Blindness and Low Vision
- Title(参考訳): 身体はバイオメカニクスと機能に重要か? : 盲目・低視者における頭部・手首補助装置の比較検討
- Authors: Gaurav Seth, Hoa Pham, Giles Hamilton-Fletcher, Charles Leclercq, John-Ross Rizzo,
- Abstract要約: Microsoft Seeing AIは視覚障害者の環境情報へのアクセスを改善する(pBLV)
本研究では、11人のpBLV参加者が、手持ちスマートフォンとヘッドマウントARxビジョンシステムで、毎日の6つの活動を実行するためにSeeeing AIを使用した。
機能的成果として, 作業時間, 成功率, 試行回数, 生体力学的指標として, 関節可動域, 角道長, 作業量, 運動の滑らかさがあげられる。
- 参考スコア(独自算出の注目度): 1.4426306562875713
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Visual assistive technologies, such as Microsoft Seeing AI, can improve access to environmental information for persons with blindness or low vision (pBLV). Yet, the physical and functional implications of different device embodiments remain unclear. In this study, 11 pBLV participants used Seeing AI on a hand-held smartphone and on a head-mounted ARx Vision system to perform six activities of daily living, while their movements were captured with Xsens motion capture. Functional outcomes included task time, success rate, and number of attempts, and biomechanical measures included joint range of motion, angular path length, working volume, and movement smoothness. The head-mounted system generally reduced upper-body movement and task time, especially for document-scanning style tasks, whereas the hand-held system yielded higher success rates for tasks involving small or curved text. These findings indicate that both embodiments are viable, but they differ in terms of physical demands and ease of use. Incorporating biomechanical measures into assistive technology evaluations can inform designs that optimise user experience by balancing functional efficiency, physical sustainability, and intuitive interaction.
- Abstract(参考訳): Microsoft Seeing AIのような視覚補助技術は、視覚障害者や視力低下者(pBLV)のための環境情報へのアクセスを改善することができる。
しかし、異なるデバイスエンボディメントの物理的および機能的含意はいまだに不明である。
本研究では、11人のpBLV参加者が、手持ちのスマートフォンやヘッドマウントのARxビジョンシステム上で、毎日の6つの活動を行うためにSeeeing AIを使用し、その動きをXsensモーションキャプチャーで捉えた。
機能的成果として, 作業時間, 成功率, 試行回数, 生体力学的指標として, 関節可動域, 角道長, 作業量, 運動の滑らかさがあげられる。
ヘッドマウントシステムでは上半身の動きやタスク時間を減らし,特に文書スキャンスタイルのタスクでは,手持ちのシステムの方が小さいテキストや湾曲テキストを含むタスクでは高い成功率を示した。
以上の結果から,両実施が可能であるが,身体的要求や使いやすさの点で異なることが示唆された。
バイオメカニクスを補助技術評価に組み込むことで、機能効率、物理的持続可能性、直感的な相互作用のバランスをとることによって、ユーザエクスペリエンスを最適化する設計を通知することができる。
関連論文リスト
- Recognizing Actions from Robotic View for Natural Human-Robot Interaction [52.00935005918032]
自然人-ロボットインタラクション(Natural Human-Robot Interaction, N-HRI)は、ロボット自身が動いているか静止しているかに関わらず、ロボットが様々な距離と状態で人間の行動を認識することを要求する。
N-HRIの既存のベンチマークは、限られたデータ、モダリティ、タスクカテゴリ、主題や環境の多様性のために、N-HRIのユニークな複雑さに対処できない。
モバイルサービスロボットで広く使われている知覚中心ロボットビューのための大規模データセット(Action from Robotic View)を紹介する。
論文 参考訳(メタデータ) (2025-07-30T09:48:34Z) - Casper: Inferring Diverse Intents for Assistive Teleoperation with Vision Language Models [50.19518681574399]
現実の遠隔操作における中心的な課題は、ロボットがユーザー制御入力から幅広い人間の意図を推測することである。
我々は、事前学習された視覚言語モデルに埋め込まれたコモンセンス知識を活用する、支援型遠隔操作システムであるCasperを紹介する。
我々は,Casperがタスク性能を改善し,人間の認知負荷を低減し,直接遠隔操作や補助遠隔操作のベースラインよりもユーザ満足度が高いことを示す。
論文 参考訳(メタデータ) (2025-06-17T17:06:43Z) - DiG-Net: Enhancing Quality of Life through Hyper-Range Dynamic Gesture Recognition in Assistive Robotics [2.625826951636656]
ロボット工学に特化して設計された新しいアプローチを導入し,最大30mの距離で動的ジェスチャー認識を実現する。
提案手法では,DADAブロックと時空間グラフモジュールを効果的に組み合わせ,距離対応ゲスチャネットワーク(DiG-Net)を提案する。
かなりの距離からジェスチャーを効果的に解釈することにより、DiG-Netは在宅医療、産業安全、遠隔支援シナリオにおける補助ロボットのユーザビリティを著しく向上させる。
論文 参考訳(メタデータ) (2025-05-30T16:47:44Z) - "I Can See Forever!": Evaluating Real-time VideoLLMs for Assisting Individuals with Visual Impairments [17.702424914454415]
視覚障害者は現在、大規模に活動しており、日々の活動は彼らにとって重大な課題となっている。
多くの研究は、視覚障害者を支援するために、大きな言語と視覚言語モデルを用いており、静的コンテンツに重点を置いており、リアルタイムの認識のニーズを満たすことができない。
より効果的な知的支援を提供するためには、高度な視覚理解技術を組み込むことが不可欠である。
論文 参考訳(メタデータ) (2025-05-07T15:03:16Z) - A Graph-based Approach to Human Activity Recognition [5.323279718522213]
本稿では,リアルタイムデータセットの拡張から重要な洞察を効率的に抽出する手法を提案する。
Inertial Measurement Units (IMU) と Global Navigation Satellite Systems (GNSS) の受信機からのデータを利用することで, 競技成績を有向グラフを用いて解析することができる。
本手法はバイアスロンデータを用いて興味のある特定の点や複雑な動きのシーケンスを検出する。
論文 参考訳(メタデータ) (2024-08-19T17:51:00Z) - BigSmall: Efficient Multi-Task Learning for Disparate Spatial and
Temporal Physiological Measurements [28.573472322978507]
生理・行動計測のための効率的なアーキテクチャであるBigSmallを提案する。
本稿では,時間シフトモジュールをラップしたマルチブランチネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-21T03:41:57Z) - Vision-Based Manipulators Need to Also See from Their Hands [58.398637422321976]
本研究では,視覚的視点の選択が,生のセンサ観測から身体操作の文脈における学習と一般化にどう影響するかを検討する。
手中心(目の)視点は可観測性を低下させるが、トレーニング効率とアウト・オブ・ディストリビューションの一般化を一貫して改善する。
論文 参考訳(メタデータ) (2022-03-15T18:46:18Z) - BC-Z: Zero-Shot Task Generalization with Robotic Imitation Learning [108.41464483878683]
本稿では,視覚に基づくロボット操作システムにおいて,新しいタスクを一般化することの課題について検討する。
実演と介入の両方から学ぶことができるインタラクティブで柔軟な模倣学習システムを開発した。
実際のロボットにおけるデータ収集を100以上のタスクにスケールすると、このシステムは平均的な成功率44%で24の目に見えない操作タスクを実行できる。
論文 参考訳(メタデータ) (2022-02-04T07:30:48Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Non-invasive Cognitive-level Human Interfacing for the Robotic
Restoration of Reaching & Grasping [5.985098076571228]
本稿では,人間の腕と指を動作させるロボットシステムを提案する。
ウェアラブルアイトラッキング、環境の視覚的コンテキスト、人間の行動の構造文法を組み合わせて、認知レベルの支援ロボットセットアップを作成します。
論文 参考訳(メタデータ) (2021-02-25T16:32:04Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。