論文の概要: How Does Delegation in Social Interaction Evolve Over Time? Navigation with a Robot for Blind People
- arxiv url: http://arxiv.org/abs/2601.19851v1
- Date: Tue, 27 Jan 2026 18:00:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-30 05:27:13.712602
- Title: How Does Delegation in Social Interaction Evolve Over Time? Navigation with a Robot for Blind People
- Title(参考訳): ソーシャルインタラクションにおけるデリゲーションは時間とともにどのように進化するか? 盲人ロボットとのナビゲーション
- Authors: Rayna Hata, Masaki Kuribayashi, Allan Wang, Hironobu Takagi, Chieko Asakawa,
- Abstract要約: 実世界の博物館でナビゲーション支援ロボットと対話した6人の盲人被験者を対象に,繰り返し露光実験を行った。
調査の結果、参加者は時間とともに戦略を洗練し、ロボットに依存するか、独立して行動するかについて、より明確な選好を生み出した。
この研究は、戦略と嗜好が反復的な相互作用によってどのように進化するかについての洞察を提供し、時間をかけてユーザーのニーズに適応するロボットの設計上の意味を提供する。
- 参考スコア(独自算出の注目度): 9.288035205251315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomy and independent navigation are vital to daily life but remain challenging for individuals with blindness. Robotic systems can enhance mobility and confidence by providing intelligent navigation assistance. However, fully autonomous systems may reduce users' sense of control, even when they wish to remain actively involved. Although collaboration between user and robot has been recognized as important, little is known about how perceptions of this relationship change with repeated use. We present a repeated exposure study with six blind participants who interacted with a navigation-assistive robot in a real-world museum. Participants completed tasks such as navigating crowds, approaching lines, and encountering obstacles. Findings show that participants refined their strategies over time, developing clearer preferences about when to rely on the robot versus act independently. This work provides insights into how strategies and preferences evolve with repeated interaction and offers design implications for robots that adapt to user needs over time.
- Abstract(参考訳): 自律性と独立したナビゲーションは日常生活に不可欠であるが、盲目の人には難しいままである。
ロボットシステムは、インテリジェントナビゲーションアシストを提供することで、モビリティと信頼性を高めることができる。
しかしながら、完全に自律的なシステムは、アクティブな関与を望む場合でも、ユーザのコントロール意識を低下させる可能性がある。
ユーザとロボットのコラボレーションが重要であると認識されているが、この関係が繰り返し使用されることでどのように変化するかは、ほとんど分かっていない。
実世界の博物館でナビゲーション支援ロボットと対話した6人の盲人被験者を対象に,繰り返し露光実験を行った。
参加者は、群衆をナビゲートしたり、線に近づいたり、障害物に遭遇したりといったタスクを完了した。
調査の結果、参加者は時間とともに戦略を洗練し、ロボットに依存するか、独立して行動するかについて、より明確な選好を生み出した。
この研究は、戦略と嗜好が反復的な相互作用によってどのように進化するかについての洞察を提供し、時間をかけてユーザーのニーズに適応するロボットの設計上の意味を提供する。
関連論文リスト
- Navigation beyond Wayfinding: Robots Collaborating with Visually Impaired Users for Environmental Interactions [23.06831135567015]
我々は,ロボットガイド犬の精密なセンシングと位置決め機能と,物理的な操作を行うユーザの能力を組み合わせた,協調的な人間ロボットアプローチを提案する。
評価の結果,従来の白杖や非適応案内システムよりも安全でスムーズで効率の良いナビゲーションが可能であることが示唆された。
論文 参考訳(メタデータ) (2026-03-15T04:21:46Z) - FollowMe: a Robust Person Following Framework Based on Re-Identification
and Gestures [12.850149165791551]
HRI(Human-robot Interaction)は、住宅や産業において、操作の柔軟性を促進するための重要な手段となっている。
本研究では,ロボットが対象者を識別・追跡できる統合認識・ナビゲーション・フレームワークを開発した。
Re-IDモジュールは、対象者の特徴を自律的に学習し、取得した知識を使用してターゲットを視覚的に再識別する。
論文 参考訳(メタデータ) (2023-11-21T20:59:27Z) - A Study on Learning Social Robot Navigation with Multimodal Perception [6.052803245103173]
本稿では,大規模実世界のデータセットを用いたマルチモーダル認識を用いた社会ロボットナビゲーションの学習について述べる。
我々は,一助学習と多モーダル学習のアプローチを,異なる社会シナリオにおける古典的なナビゲーション手法のセットと比較する。
その結果、マルチモーダル学習は、データセットと人的学習の両方において、一助学習よりも明らかな優位性を持つことが示された。
論文 参考訳(メタデータ) (2023-09-22T01:47:47Z) - Principles and Guidelines for Evaluating Social Robot Navigation
Algorithms [44.51586279645062]
社会的ロボットナビゲーションは、動的エージェントとそのロボット行動の適切性に対する認識が関係しているため、評価が難しい。
コントリビューションには、(a)安全性、快適性、妥当性、丁寧さ、社会的能力、エージェント理解、活動性、文脈に対する応答性に関する原則、(b)メトリクスの使用のためのガイドライン、シナリオ、ベンチマーク、データセット、社会ナビゲーションを評価するためのシミュレーター、(c)様々なシミュレーター、ロボット、データセットの結果の比較を容易にするソーシャルナビゲーションメトリクスフレームワークなどが含まれます。
論文 参考訳(メタデータ) (2023-06-29T07:31:43Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - Socially Compliant Navigation Dataset (SCAND): A Large-Scale Dataset of
Demonstrations for Social Navigation [92.66286342108934]
社会ナビゲーションは、ロボットのような自律的なエージェントが、人間のような他の知的エージェントの存在下で、社会的に従順な方法でナビゲートする能力である。
私たちのデータセットには8.7時間、128の軌道、25マイルの社会的に適合した人間の遠隔運転デモが含まれています。
論文 参考訳(メタデータ) (2022-03-28T19:09:11Z) - Intention Aware Robot Crowd Navigation with Attention-Based Interaction
Graph [3.8461692052415137]
本研究では,高密度で対話的な群集における安全かつ意図に配慮したロボットナビゲーションの課題について検討する。
本稿では,エージェント間の異種相互作用を捕捉するアテンション機構を備えた新しいグラフニューラルネットワークを提案する。
提案手法は,群集ナビゲーションのシナリオにおいて,優れたナビゲーション性能と非侵襲性をロボットが実現できることを実証する。
論文 参考訳(メタデータ) (2022-03-03T16:26:36Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - LaND: Learning to Navigate from Disengagements [158.6392333480079]
本研究では,学習者に対する学習支援のための強化学習手法(LaND)を提案する。
LaNDは現在の知覚的観察から、どのアクションが解離につながるかを予測するニューラルネットワークモデルを学び、テスト時計画で解離を回避するアクションを実行する。
以上の結果から,LaNDは多種多様な現実世界の歩道環境を学習し,模倣学習と強化学習の両方に優れることを示した。
論文 参考訳(メタデータ) (2020-10-09T17:21:42Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。