論文の概要: Semantics for Robotic Mapping, Perception and Interaction: A Survey
- arxiv url: http://arxiv.org/abs/2101.00443v1
- Date: Sat, 2 Jan 2021 12:34:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 07:20:36.288586
- Title: Semantics for Robotic Mapping, Perception and Interaction: A Survey
- Title(参考訳): ロボットマッピング,知覚,インタラクションのためのセマンティクス:調査
- Authors: Sourav Garg, Niko S\"underhauf, Feras Dayoub, Douglas Morrison,
Akansel Cosgun, Gustavo Carneiro, Qi Wu, Tat-Jun Chin, Ian Reid, Stephen
Gould, Peter Corke, Michael Milford
- Abstract要約: 理解の研究は、ロボットに世界が何を意味するのかを決定する。
人間とロボットが同じ世界で活動するようになるにつれ、人間とロボットの相互作用の展望も意味論をもたらす。
ニーズや、トレーニングデータや計算リソースの可用性向上などによって駆動されるセマンティックスは、ロボティクスにおける急速に成長している研究領域である。
- 参考スコア(独自算出の注目度): 93.93587844202534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For robots to navigate and interact more richly with the world around them,
they will likely require a deeper understanding of the world in which they
operate. In robotics and related research fields, the study of understanding is
often referred to as semantics, which dictates what does the world "mean" to a
robot, and is strongly tied to the question of how to represent that meaning.
With humans and robots increasingly operating in the same world, the prospects
of human-robot interaction also bring semantics and ontology of natural
language into the picture. Driven by need, as well as by enablers like
increasing availability of training data and computational resources, semantics
is a rapidly growing research area in robotics. The field has received
significant attention in the research literature to date, but most reviews and
surveys have focused on particular aspects of the topic: the technical research
issues regarding its use in specific robotic topics like mapping or
segmentation, or its relevance to one particular application domain like
autonomous driving. A new treatment is therefore required, and is also timely
because so much relevant research has occurred since many of the key surveys
were published. This survey therefore provides an overarching snapshot of where
semantics in robotics stands today. We establish a taxonomy for semantics
research in or relevant to robotics, split into four broad categories of
activity, in which semantics are extracted, used, or both. Within these broad
categories we survey dozens of major topics including fundamentals from the
computer vision field and key robotics research areas utilizing semantics,
including mapping, navigation and interaction with the world. The survey also
covers key practical considerations, including enablers like increased data
availability and improved computational hardware, and major application areas
where...
- Abstract(参考訳): ロボットが周囲の世界をナビゲートし、よりリッチに対話するためには、操作する世界についてより深く理解する必要があるだろう。
ロボット工学および関連する研究分野において、理解の研究はしばしば意味論(semantics)と呼ばれ、世界がロボットに何を「意味」するかを決定し、その意味をいかに表現するかという問題に強く結びついている。
人間とロボットが同じ世界で活動するようになるにつれ、人間とロボットの相互作用の展望は、自然言語のセマンティクスとオントロジをもたらす。
ニーズや、トレーニングデータや計算リソースの可用性向上などによって駆動されるセマンティックスは、ロボティクスにおける急速に成長している研究領域である。
この分野は、これまで研究文献で大きな注目を集めてきたが、ほとんどのレビューや調査は、そのトピックの特定の側面に焦点を当てている: マッピングやセグメンテーションのような特定のロボットトピックにおけるその使用に関する技術的研究問題、あるいは自動運転のような特定のアプリケーションドメインとの関連性。
それゆえ、新たな治療法が必要であり、多くの主要な調査が公表されて以来、多くの関連する研究が起きているため、タイムリーである。
この調査は、ロボット工学のセマンティクスが現在どこにあるのかを概観するスナップショットを提供する。
ロボット工学のセマンティクス研究のための分類学を確立し、セマンティクスを抽出、使用、または両方する4つの幅広い活動カテゴリに分けた。
これらの幅広いカテゴリの中で、コンピュータビジョン分野の基本や、マッピング、ナビゲーション、世界との対話など、セマンティクスを利用した重要なロボティクス研究領域を含む数十の主要なトピックを調査します。
この調査は、データアベイラビリティーの向上、計算ハードウェアの改善、そして主要なアプリケーション領域を含む、重要な実用的考慮事項もカバーしている。
関連論文リスト
- Toward General-Purpose Robots via Foundation Models: A Survey and
Meta-Analysis [73.89558418030418]
既存のロボットシステムは、特定のタスクのために設計され、特定のデータセットに基づいて訓練され、特定の環境にデプロイされている。
ウェブスケールで大規模で大容量の事前学習型モデルの優れたオープンセット性能とコンテンツ生成能力に感銘を受けて,我々は,基礎モデルをロボット工学に適用する方法を探究した。
論文 参考訳(メタデータ) (2023-12-14T10:02:55Z) - Open-World Object Manipulation using Pre-trained Vision-Language Models [72.87306011500084]
ロボットが人からの指示に従うためには、人間の語彙の豊かな意味情報を繋げなければならない。
我々は、事前学習された視覚言語モデルを利用して、オブジェクト識別情報を抽出するシンプルなアプローチを開発する。
実際の移動マニピュレータにおける様々な実験において、MOOはゼロショットを様々な新しいオブジェクトカテゴリや環境に一般化する。
論文 参考訳(メタデータ) (2023-03-02T01:55:10Z) - Deep Learning for Human Parsing: A Survey [54.812353922568995]
本研究では,人間の意味解析の先駆的な研究の幅広い範囲を網羅する,最先端の人間の構文解析手法の解析を行う。
1) 構造駆動型アーキテクチャは,人体の異なる部分と固有の階層構造を生かし,(2) グラフベースのネットワークは,効率的で完全な人体分析を実現するためにグローバルな情報を捉え,(3) コンテキスト認識ネットワークは,対応するクラスのピクセルを特徴付けるために,すべてのピクセルにわたって有用なコンテキストを探索し,(4) LSTMベースの手法は,短距離と長距離空間の依存関係を結合して,豊富な局所的・グローバルなコンテキストをうまく活用することができる。
論文 参考訳(メタデータ) (2023-01-29T10:54:56Z) - Semantic-Aware Environment Perception for Mobile Human-Robot Interaction [2.309914459672557]
本稿では,移動ロボットのための視覚ベースシステムについて,アプリオリ知識を付加せずにセマンティック・アウェア環境を実現する。
実世界のアプリケーションで我々の手法をテストすることができる移動型ヒューマノイドロボットにシステムをデプロイする。
論文 参考訳(メタデータ) (2022-11-07T08:49:45Z) - Augmented Reality and Robotics: A Survey and Taxonomy for AR-enhanced
Human-Robot Interaction and Robotic Interfaces [21.72715373737208]
Augmented and Mixed Reality(AR/MR)は、人間とロボットの相互作用を強化する新しい方法として登場した。
本研究は,460件の研究論文に基づく拡張現実とロボット工学の分類に寄与する。
論文 参考訳(メタデータ) (2022-03-07T10:22:59Z) - Human-Robot Collaboration and Machine Learning: A Systematic Review of
Recent Research [69.48907856390834]
人間ロボットコラボレーション(Human-robot collaboration、HRC)とは、人間とロボットの相互作用を探索する手法である。
本稿では,HRCの文脈における機械学習技術の利用に関する詳細な文献レビューを提案する。
論文 参考訳(メタデータ) (2021-10-14T15:14:33Z) - A Survey on Human-aware Robot Navigation [22.926878248788558]
本稿では,社会に適応したロボットのナビゲーションについて述べる。
研究分野に関する既存のソリューションのサーベイと、将来的な方向性の展望を提供する。
論文 参考訳(メタデータ) (2021-06-22T10:09:25Z) - Spoken Language Interaction with Robots: Research Issues and
Recommendations, Report from the NSF Future Directions Workshop [0.819605661841562]
人間のニーズを満たすには、音声技術とユーザーエクスペリエンス設計における新しい課題に対処する必要がある。
大規模な再設計や大規模なトレーニングデータの収集なしに、より強力な適応手法が必要である。
ロボットはリアルタイムで動作するため、音声処理や言語処理も必要である。
論文 参考訳(メタデータ) (2020-11-11T03:45:34Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。