論文の概要: AU Dataset for Visuo-Haptic Object Recognition for Robots
- arxiv url: http://arxiv.org/abs/2112.13761v1
- Date: Mon, 27 Dec 2021 16:15:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 17:49:36.117311
- Title: AU Dataset for Visuo-Haptic Object Recognition for Robots
- Title(参考訳): ロボットの視覚・触覚物体認識のためのAUデータセット
- Authors: Lasse Emil R. Bonner, and Daniel Daugaard Buhl, and Kristian
Kristensen, and Nicol\'as Navarro-Guerrero
- Abstract要約: データセットには、視覚的、審美的、触覚的(オーディオ/バイブレーション)データが含まれている。
本報告ではデータセットの作成と構造について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multimodal object recognition is still an emerging field. Thus, publicly
available datasets are still rare and of small size. This dataset was developed
to help fill this void and presents multimodal data for 63 objects with some
visual and haptic ambiguity. The dataset contains visual, kinesthetic and
tactile (audio/vibrations) data. To completely solve sensory ambiguity, sensory
integration/fusion would be required. This report describes the creation and
structure of the dataset. The first section explains the underlying approach
used to capture the visual and haptic properties of the objects. The second
section describes the technical aspects (experimental setup) needed for the
collection of the data. The third section introduces the objects, while the
final section describes the structure and content of the dataset.
- Abstract(参考訳): マルチモーダルオブジェクト認識はまだ新興分野である。
したがって、公開されているデータセットはまだ稀で、サイズも小さい。
このデータセットは、この空白を埋めるために開発され、視覚的および触覚的曖昧さのある63のオブジェクトに対してマルチモーダルデータを提示する。
データセットには、視覚、審美、触覚(オーディオ/振動)データが含まれている。
感覚の曖昧さを完全に解決するには、感覚統合/融合が必要である。
本報告ではデータセットの作成と構造について述べる。
最初のセクションでは、オブジェクトの視覚的および触覚的特性をキャプチャするために使用される基礎となるアプローチを説明します。
第2のセクションでは、データ収集に必要な技術的側面(実験的なセットアップ)について説明する。
第3のセクションではオブジェクトを紹介し、最後のセクションではデータセットの構造と内容について説明する。
関連論文リスト
- Anno-incomplete Multi-dataset Detection [67.69438032767613]
我々は「不完全なマルチデータセット検出」という新しい問題を提案する。
複数の注釈付きデータセットで全ての対象カテゴリを正確に検出できるエンドツーエンドのマルチタスク学習アーキテクチャを開発した。
論文 参考訳(メタデータ) (2024-08-29T03:58:21Z) - Open-Vocabulary Camouflaged Object Segmentation [66.94945066779988]
OVCOS(Open-vocabulary camouflaged Object segmentation)を導入した。
我々は11,483個の手選択画像とそれに対応するオブジェクトクラスを含む大規模複合シーンデータセット(textbfOVCamo)を構築した。
クラスセマンティック知識の指導とエッジ情報と深度情報からの視覚構造的手がかりの補足を統合することにより、提案手法は効率よくカモフラージュされたオブジェクトを捕捉できる。
論文 参考訳(メタデータ) (2023-11-19T06:00:39Z) - infoVerse: A Universal Framework for Dataset Characterization with
Multidimensional Meta-information [68.76707843019886]
infoVerseは、データセットの特徴付けのための普遍的なフレームワークである。
infoVerseは、様々なモデル駆動メタ情報を統合することで、データセットの多次元特性をキャプチャする。
実世界の3つのアプリケーション(データプルーニング、アクティブラーニング、データアノテーション)において、infoVerse空間で選択されたサンプルは、強いベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-30T18:12:48Z) - Going Denser with Open-Vocabulary Part Segmentation [38.395986723880505]
開語彙オブジェクトとその部分セグメンテーションの両方を予測することができる検出器を提案する。
まず、部分レベル、オブジェクトレベル、画像レベルのデータのジョイント上で検出器を訓練し、言語と画像間の多粒度アライメントを構築する。
第二に、新しいオブジェクトを、ベースオブジェクトとの密接なセマンティック対応によって、そのパーツにパースする。
論文 参考訳(メタデータ) (2023-05-18T17:59:10Z) - Automatic dataset generation for specific object detection [6.346581421948067]
本研究では,オブジェクトの詳細な特徴を,無関係な情報を得ることなく保存することができるオブジェクト・イン・シーン・イメージの合成手法を提案する。
その結果,合成画像では,物体の境界が背景とよく一致していることがわかった。
論文 参考訳(メタデータ) (2022-07-16T07:44:33Z) - Detection Hub: Unifying Object Detection Datasets via Query Adaptation
on Language Embedding [137.3719377780593]
新しいデザイン(De Detection Hubという名前)は、データセット認識とカテゴリ整列である。
データセットの不整合を緩和し、検出器が複数のデータセットをまたいで学習するための一貫性のあるガイダンスを提供する。
データセット間のカテゴリは、ワンホットなカテゴリ表現を単語埋め込みに置き換えることで、意味的に統一された空間に整列される。
論文 参考訳(メタデータ) (2022-06-07T17:59:44Z) - ObjectFolder: A Dataset of Objects with Implicit Visual, Auditory, and
Tactile Representations [52.226947570070784]
両課題に対処する100のオブジェクトからなるデータセットであるObjectを,2つの重要なイノベーションで紹介する。
まず、オブジェクトは視覚的、聴覚的、触覚的なすべてのオブジェクトの知覚データをエンコードし、多数の多感覚オブジェクト認識タスクを可能にする。
第2に、Objectは統一されたオブジェクト中心のシミュレーションと、各オブジェクトの視覚的テクスチャ、触覚的読み出し、触覚的読み出しに暗黙的な表現を採用しており、データセットの使用が柔軟で共有が容易である。
論文 参考訳(メタデータ) (2021-09-16T14:00:59Z) - REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter [52.117388513480435]
本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
論文 参考訳(メタデータ) (2021-04-29T05:31:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。