論文の概要: Understanding Natural Language in Context
- arxiv url: http://arxiv.org/abs/2205.12691v1
- Date: Wed, 25 May 2022 11:52:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 00:19:41.507380
- Title: Understanding Natural Language in Context
- Title(参考訳): 文脈における自然言語理解
- Authors: Avichai Levy, Erez Karpas
- Abstract要約: 我々は、世界の知識に基づくモデルを持ち、このモデルによる推論と計画によって操作する認知ロボットに焦点を当てる。
本研究の目的は,自然言語の発話をロボットのフォーマリズムに翻訳することである。
我々は、既製のSOTA言語モデル、計画ツール、ロボットの知識ベースを組み合わせてコミュニケーションを改善する。
- 参考スコア(独自算出の注目度): 13.112390442564442
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years have seen an increasing number of applications that have a
natural language interface, either in the form of chatbots or via personal
assistants such as Alexa (Amazon), Google Assistant, Siri (Apple), and Cortana
(Microsoft). To use these applications, a basic dialog between the robot and
the human is required.
While this kind of dialog exists today mainly within "static" robots that do
not make any movement in the household space, the challenge of reasoning about
the information conveyed by the environment increases significantly when
dealing with robots that can move and manipulate objects in our home
environment.
In this paper, we focus on cognitive robots, which have some knowledge-based
models of the world and operate by reasoning and planning with this model.
Thus, when the robot and the human communicate, there is already some formalism
they can use - the robot's knowledge representation formalism.
Our goal in this research is to translate natural language utterances into
this robot's formalism, allowing much more complicated household tasks to be
completed. We do so by combining off-the-shelf SOTA language models, planning
tools, and the robot's knowledge-base for better communication. In addition, we
analyze different directive types and illustrate the contribution of the
world's context to the translation process.
- Abstract(参考訳): 近年、チャットボットの形で、あるいはAlexa(Amazon)、Google Assistant(Apple)、Cortana(Microsoft)などのパーソナルアシスタントを介して自然言語インターフェースを持つアプリケーションが増えている。
これらのアプリケーションを使用するには、ロボットと人間の基本的な対話が必要である。
このダイアログは, 現在, 家庭内での移動を一切行わない「静的な」ロボット内に存在するが, 家庭環境における物体の移動・操作が可能なロボットを扱う場合, 環境によって伝達される情報に対する推論の難しさは著しく増大している。
本稿では,世界の知識に基づくモデルを持ち,このモデルによる推論と計画によって機能する認知ロボットに焦点を当てる。
したがって、ロボットと人間のコミュニケーションには、ロボットの知識表現形式主義(英語版)といういくつかの形式主義がすでに存在する。
この研究の目標は、自然言語発話をこのロボットの形式に翻訳し、より複雑な家庭作業の完了を可能にすることです。
我々は、既製のSOTA言語モデル、計画ツール、ロボットの知識ベースを組み合わせてコミュニケーションを改善する。
さらに,異なるディレクティブタイプを分析し,翻訳プロセスへの世界のコンテキストの寄与を説明する。
関連論文リスト
- Large Language Models for Human-Robot Interaction: Opportunities and Risks [0.0]
本稿では,社会ロボットに展開する大規模言語モデルの可能性についてメタスタディを示す。
我々は,これらの言語モデルが社会的規範や問題を理解するためにいかに安全に訓練されるかを研究する。
この研究は、言語モデルをロボットに組み込むことに興味を持つ他のロボット研究者に、豊富なガイドを提供することを期待している。
論文 参考訳(メタデータ) (2024-03-26T15:36:40Z) - Exploring Large Language Models to Facilitate Variable Autonomy for Human-Robot Teaming [4.779196219827508]
本稿では,VR(Unity Virtual Reality)設定に基づく,GPTを利用したマルチロボットテストベッド環境のための新しいフレームワークを提案する。
このシステムにより、ユーザーは自然言語でロボットエージェントと対話でき、それぞれが個々のGPTコアで動く。
12人の参加者によるユーザスタディでは、GPT-4の有効性と、さらに重要なのは、マルチロボット環境で自然言語で会話する機会を与えられる際のユーザ戦略について検討している。
論文 参考訳(メタデータ) (2023-12-12T12:26:48Z) - Dobby: A Conversational Service Robot Driven by GPT-4 [22.701223191699412]
この研究は、対話型AIエージェントをサービスタスクの具体化システムに組み込むロボティクスプラットフォームを導入する。
このエージェントは、膨大な一般知識のコーパスから学んだ、大きな言語モデルに由来する。
本発明のエージェントは対話生成に加えて、ロボットのコマンドを呼び出し、物理世界と対話することができる。
論文 参考訳(メタデータ) (2023-10-10T04:34:00Z) - HandMeThat: Human-Robot Communication in Physical and Social
Environments [73.91355172754717]
HandMeThatは、物理的および社会的環境における命令理解とフォローの総合評価のためのベンチマークである。
HandMeThatには、人間とロボットの対話の1万エピソードが含まれている。
オフラインとオンラインの強化学習アルゴリズムはHandMeThatでは性能が良くないことを示す。
論文 参考訳(メタデータ) (2023-10-05T16:14:46Z) - WALL-E: Embodied Robotic WAiter Load Lifting with Large Language Model [92.90127398282209]
本稿では,最新のLarge Language Models(LLM)と既存のビジュアルグラウンドとロボットグルーピングシステムを統合する可能性について検討する。
本稿では,この統合の例としてWALL-E (Embodied Robotic WAiter load lifting with Large Language model)を紹介する。
我々は,このLCMを利用したシステムを物理ロボットに展開し,よりユーザフレンドリなインタフェースで指導誘導型把握タスクを実現する。
論文 参考訳(メタデータ) (2023-08-30T11:35:21Z) - Open-World Object Manipulation using Pre-trained Vision-Language Models [72.87306011500084]
ロボットが人からの指示に従うためには、人間の語彙の豊かな意味情報を繋げなければならない。
我々は、事前学習された視覚言語モデルを利用して、オブジェクト識別情報を抽出するシンプルなアプローチを開発する。
実際の移動マニピュレータにおける様々な実験において、MOOはゼロショットを様々な新しいオブジェクトカテゴリや環境に一般化する。
論文 参考訳(メタデータ) (2023-03-02T01:55:10Z) - Do As I Can, Not As I Say: Grounding Language in Robotic Affordances [119.29555551279155]
大規模な言語モデルは、世界に関する豊富な意味知識を符号化することができる。
このような知識は、自然言語で表現された高レベルで時間的に拡張された命令を動作させようとするロボットにとって極めて有用である。
低レベルのスキルを大規模言語モデルと組み合わせることで,言語モデルが複雑かつ時間的に拡張された命令を実行する手順について高いレベルの知識を提供することを示す。
論文 参考訳(メタデータ) (2022-04-04T17:57:11Z) - Learning Language-Conditioned Robot Behavior from Offline Data and
Crowd-Sourced Annotation [80.29069988090912]
本研究では,ロボットインタラクションの大規模なオフラインデータセットから視覚に基づく操作タスクを学習する問題について検討する。
クラウドソースの自然言語ラベルを用いたオフラインロボットデータセットの活用を提案する。
提案手法は目標画像仕様と言語条件付き模倣技術の両方を25%以上上回っていることがわかった。
論文 参考訳(メタデータ) (2021-09-02T17:42:13Z) - Self-supervised reinforcement learning for speaker localisation with the
iCub humanoid robot [58.2026611111328]
人の顔を見ることは、ノイズの多い環境での音声のフィルタリングに人間が依存するメカニズムの1つである。
スピーカーに目を向けるロボットを持つことは、挑戦的な環境でのASRのパフォーマンスに恩恵をもたらす可能性がある。
本稿では,人間の初期発達に触発された自己指導型強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-12T18:02:15Z) - Spoken Language Interaction with Robots: Research Issues and
Recommendations, Report from the NSF Future Directions Workshop [0.819605661841562]
人間のニーズを満たすには、音声技術とユーザーエクスペリエンス設計における新しい課題に対処する必要がある。
大規模な再設計や大規模なトレーニングデータの収集なしに、より強力な適応手法が必要である。
ロボットはリアルタイムで動作するため、音声処理や言語処理も必要である。
論文 参考訳(メタデータ) (2020-11-11T03:45:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。