論文の概要: Learning Long Short-Term Intention within Human Daily Behaviors
- arxiv url: http://arxiv.org/abs/2504.07597v1
- Date: Thu, 10 Apr 2025 09:50:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 12:19:46.045697
- Title: Learning Long Short-Term Intention within Human Daily Behaviors
- Title(参考訳): ヒトの行動における長期的意図の学習
- Authors: Zhe Sun, Rujie Wu, Xiaodong Yang, Hongzhao Xie, Haiyan Jiang, Junda Bi, Zhenliang Zhang,
- Abstract要約: ロボットにとって、人間の振る舞いを理解し、適切なサービスを提供することがもっとも重要である。
伝統的に、人間は欠陥のないと認識され、その決定はロボットが整合しようとする基準として機能する。
我々は「長期的短期意図予測」と呼ばれるユニークな課題を提示する。
- 参考スコア(独自算出の注目度): 8.603209978135661
- License:
- Abstract: In the domain of autonomous household robots, it is of utmost importance for robots to understand human behaviors and provide appropriate services. This requires the robots to possess the capability to analyze complex human behaviors and predict the true intentions of humans. Traditionally, humans are perceived as flawless, with their decisions acting as the standards that robots should strive to align with. However, this raises a pertinent question: What if humans make mistakes? In this research, we present a unique task, termed "long short-term intention prediction". This task requires robots can predict the long-term intention of humans, which aligns with human values, and the short term intention of humans, which reflects the immediate action intention. Meanwhile, the robots need to detect the potential non-consistency between the short-term and long-term intentions, and provide necessary warnings and suggestions. To facilitate this task, we propose a long short-term intention model to represent the complex intention states, and build a dataset to train this intention model. Then we propose a two-stage method to integrate the intention model for robots: i) predicting human intentions of both value-based long-term intentions and action-based short-term intentions; and 2) analyzing the consistency between the long-term and short-term intentions. Experimental results indicate that the proposed long short-term intention model can assist robots in comprehending human behavioral patterns over both long-term and short-term durations, which helps determine the consistency between long-term and short-term intentions of humans.
- Abstract(参考訳): 自律型家庭用ロボットの分野では、ロボットが人間の行動を理解し、適切なサービスを提供することがもっとも重要である。
ロボットは複雑な人間の行動を分析し、人間の真の意図を予測する能力を持つ必要がある。
伝統的に、人間は欠陥のないと認識され、その決定はロボットが整合しようとする基準として機能する。
しかし、これは関連する疑問を提起する: 人間がミスをしたらどうなるか?
本研究では,「長期的短期意図予測」と呼ばれる,独特な課題を提示する。
このタスクでは、人間の価値と一致した人間の長期的な意図と、即時的な行動意図を反映した人間の短期的な意図を予測できる。
一方、ロボットは短期的意図と長期的意図の間の潜在的な非一貫性を検出し、必要な警告や提案を提供する必要がある。
この作業を容易にするために、複雑な意図状態を表現するための長期的短期意図モデルを提案し、この意図モデルをトレーニングするためのデータセットを構築する。
次に,ロボットの意図モデルを統合するための2段階の手法を提案する。1 価値に基づく長期的意図と行動に基づく短期意図の両方の人間の意図を予測し,2) 長期的意図と短期的意図の整合性を解析する。
実験結果から,提案した長期意図モデルは,長期的・短期的両方の行動パターンをロボットが理解し,長期的・短期的な意図の整合性を決定するのに役立つことが示唆された。
関連論文リスト
- An Epistemic Human-Aware Task Planner which Anticipates Human Beliefs and Decisions [8.309981857034902]
目的は、制御不能な人間の行動を説明するロボットポリシーを構築することである。
提案手法は,AND-OR探索に基づく新しい計画手法と解法の構築である。
2つの領域における予備的な実験は、1つの新しいものと1つの適応されたもので、フレームワークの有効性を実証している。
論文 参考訳(メタデータ) (2024-09-27T08:27:36Z) - CoNav: A Benchmark for Human-Centered Collaborative Navigation [66.6268966718022]
協調ナビゲーション(CoNav)ベンチマークを提案する。
われわれのCoNavは、現実的で多様な人間の活動を伴う3Dナビゲーション環境を構築するという重要な課題に取り組む。
本研究では,長期的意図と短期的意図の両方を推論する意図認識エージェントを提案する。
論文 参考訳(メタデータ) (2024-06-04T15:44:25Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - Robust Robot Planning for Human-Robot Collaboration [11.609195090422514]
人間とロボットのコラボレーションにおいて、人間の目的はしばしばロボットに未知である。
本研究では,各目的関数に対して不確実な人間行動(ポリシー)を自動的に生成する手法を提案する。
また,上記の不確実性に対して頑健なロボット計画アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-27T16:02:48Z) - Can Foundation Models Perform Zero-Shot Task Specification For Robot
Manipulation? [54.442692221567796]
タスク仕様は、熟練していないエンドユーザの関与とパーソナライズされたロボットの採用に不可欠である。
タスク仕様に対する広く研究されているアプローチは、目標を通じて、コンパクトな状態ベクトルまたは同じロボットシーンのゴールイメージを使用することである。
そこで本研究では,人間の指定や使用が容易な目標仕様の代替的,より汎用的な形式について検討する。
論文 参考訳(メタデータ) (2022-04-23T19:39:49Z) - Preemptive Motion Planning for Human-to-Robot Indirect Placement
Handovers [12.827398121150386]
ロボットハンドオーバは,(1)直接ハンド・トゥ・ハンド,(2)間接ハンド・トゥ・プレイスメント・トゥ・ピックアップの2つのアプローチのどちらかを用いることができる。
このような怠慢な時間を最小化するためには、ロボットは、オブジェクトがどこに置かれるかという人間の意図を事前に予測する必要がある。
本稿では,ロボットが人間のエージェントの意図した配置位置へ先進的に移動できるようにする,新しい予測計画パイプラインを提案する。
論文 参考訳(メタデータ) (2022-03-01T00:21:39Z) - Recent Advances in Leveraging Human Guidance for Sequential
Decision-Making Tasks [60.380501589764144]
人工知能の長年の目標は、シーケンシャルな意思決定を必要とするタスクを実行することを学ぶことができる人工知能を作ることである。
学習し行動する人工エージェントであるが、実行すべき特定のタスクを特定するのは人間次第である。
この調査は、主に人間のガイダンスに依存する5つの最近の機械学習フレームワークのハイレベルな概要を提供する。
論文 参考訳(メタデータ) (2021-07-13T03:11:04Z) - Long Term Motion Prediction Using Keyposes [122.22758311506588]
長期的な予測を達成するには、瞬時に人間のポーズを予測する必要があると論じている。
このようなポーズを「キーポス」と呼び、後続のキーポスを線形に補間して近似する複素運動と呼ぶ。
このようなキープレースのシーケンスを学習することで,将来的には最大5秒まで,非常に長期にわたる動作を予測できることが示される。
論文 参考訳(メタデータ) (2020-12-08T20:45:51Z) - Minimizing Robot Navigation-Graph For Position-Based Predictability By
Humans [20.13307800821161]
人間とロボットが同じ空間を移動しながら独自のタスクを遂行している状況では、予測可能な経路が不可欠である。
ロボットの数が増加するにつれて、人間がロボットの進路を予測するための認知的努力は不可能になる。
そこで本研究では,位置に基づく予測可能性のために,ロボットのナビゲーショングラフを最小化することを提案する。
論文 参考訳(メタデータ) (2020-10-28T22:09:10Z) - Supportive Actions for Manipulation in Human-Robot Coworker Teams [15.978389978586414]
我々は、将来の干渉を減らすことで相互作用を支援する行動を、支援ロボット行動と表現する。
1)タスク指向: ロボットは自身のタスク目標をさらに進めるためにのみ行動を取るし、(2)支援的: ロボットはタスク指向のタスクよりも支援的行動を好む。
シミュレーション実験では, 人体モデルを用いて, エージェント間の干渉を軽減し, 作業の完了に要する時間が長いことを明らかにした。
論文 参考訳(メタデータ) (2020-05-02T09:37:10Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。