論文の概要: Container Localisation and Mass Estimation with an RGB-D Camera
- arxiv url: http://arxiv.org/abs/2203.01207v1
- Date: Wed, 2 Mar 2022 16:03:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 19:29:57.336466
- Title: Container Localisation and Mass Estimation with an RGB-D Camera
- Title(参考訳): RGB-Dカメラによるコンテナの局所化と質量推定
- Authors: Tommaso Apicella, Giulia Slavic, Edoardo Ragusa, Paolo Gastaldo and
Lucio Marcenaro
- Abstract要約: 操作された容器を検知し,その空の質量を推定するカメラベース手法を提案する。
CORSMAL Containers Manipulationデータセットの結果,提案手法は空のコンテナ質量を推定し,スコアは71.08%であった。
- 参考スコア(独自算出の注目度): 2.5949039059957943
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the research area of human-robot interactions, the automatic estimation of
the mass of a container manipulated by a person leveraging only visual
information is a challenging task. The main challenges consist of occlusions,
different filling materials and lighting conditions. The mass of an object
constitutes key information for the robot to correctly regulate the force
required to grasp the container. We propose a single RGB-D camera-based method
to locate a manipulated container and estimate its empty mass i.e.,
independently of the presence of the content. The method first automatically
selects a number of candidate containers based on the distance with the fixed
frontal view, then averages the mass predictions of a lightweight model to
provide the final estimation. Results on the CORSMAL Containers Manipulation
dataset show that the proposed method estimates empty container mass obtaining
a score of 71.08% under different lighting or filling conditions.
- Abstract(参考訳): 人間とロボットの相互作用の研究分野において、視覚情報のみを利用する人物が操作する容器の質量の自動推定は困難な課題である。
主な課題は、閉塞物、異なる充填材、照明条件である。
物体の質量は、ロボットが容器をつかむために必要な力を正しく制御するための重要な情報を構成する。
本稿では,操作済みのコンテナを1つのRGB-Dカメラで検出し,その空の質量,すなわちコンテンツの有無に関わらず推定する手法を提案する。
提案手法は,まず,固定前面からの距離に基づいて複数の候補容器を自動的に選択し,次に軽量モデルの質量予測を推定して最終推定を行う。
その結果,提案手法では,異なる照明条件や充填条件下で71.08%のスコアを得た空容器質量を推定できることがわかった。
関連論文リスト
- Segment Any Events via Weighted Adaptation of Pivotal Tokens [85.39087004253163]
本稿では,Segment Anything Models (SAM) をイベントデータと統合する上で,難易度の高い課題に焦点を当てる。
本稿では,RGB画像とイベントデータからのトークン埋め込みのアライメントを最適化するマルチスケールな特徴蒸留手法を提案する。
論文 参考訳(メタデータ) (2023-12-24T12:47:08Z) - Towards Multimodal Multitask Scene Understanding Models for Indoor
Mobile Agents [49.904531485843464]
本稿では,現実世界の屋内環境におけるラベル付きデータの不十分,あるいは不可能,といった主な課題について論じる。
MMISM (Multi-modality input Multi-task output Indoor Scene Understanding Model) について述べる。
MMISMは、RGB画像だけでなく、スパースライダーポイントを入力と3Dオブジェクト検出、深さ完了、人間のポーズ推定、セマンティックセグメンテーションを出力タスクとみなしている。
MMISMはシングルタスクモデルよりも同等かそれ以上の性能を示す。
論文 参考訳(メタデータ) (2022-09-27T04:49:19Z) - A Multi-purpose Real Haze Benchmark with Quantifiable Haze Levels and
Ground Truth [61.90504318229845]
本稿では,ハズフリー画像とその場でのハズ密度測定を併用した,最初の実画像ベンチマークデータセットを提案する。
このデータセットはコントロールされた環境で生成され、プロの煙発生装置がシーン全体を覆っている。
このデータセットのサブセットは、CVPR UG2 2022 チャレンジの Haze Track における Object Detection に使用されている。
論文 参考訳(メタデータ) (2022-06-13T19:14:06Z) - MINSU (Mobile Inventory And Scanning Unit):Computer Vision and AI [7.748463060341004]
MINSUアルゴリズムは計算ビジョン解析法を用いてキャビネットの残量/フルネスを記録する。
オブジェクト検出、フォアグラウンドサブトラクション、K平均クラスタリング、パーセンテージ推定、カウントという5段階の手法を踏襲する。
論文 参考訳(メタデータ) (2022-04-14T00:21:14Z) - Improving Generalization of Deep Networks for Estimating Physical
Properties of Containers and Fillings [9.804998964598115]
我々は、パイプラインのバックボーンモデルとして、協調的な注意を伴う軽量で訓練済みの畳み込みニューラルネットワークを使用している。
補充型分類とオーディオデータに対処し、その情報とビデオのモダリティを組み合わせ、補充レベル分類に対処する。
コンテナ容量,寸法,質量推定について,データ拡張と整合性の測定を行う。
論文 参考訳(メタデータ) (2022-03-02T15:47:27Z) - Visual-tactile sensing for Real-time liquid Volume Estimation in
Grasping [58.50342759993186]
変形性容器内の液体をリアルタイムに推定するためのビジュオ触覚モデルを提案する。
我々は、RGBカメラからの生の視覚入力と、特定の触覚センサーからの触覚手がかりの2つの感覚モードを融合する。
ロボットシステムは、推定モデルに基づいて、リアルタイムで適切に制御され、調整される。
論文 参考訳(メタデータ) (2022-02-23T13:38:31Z) - Multi-modal estimation of the properties of containers and their
content: survey and evaluation [33.774625622770984]
コンテナの容量を推定する手法と,その内容のタイプ,質量,量について述べる。
これらの手法は、メル周波数ケプストラム係数、ゼロクロスレート、分光図、および視覚データを用いた幾何学的アプローチなどの学習および手作りの特徴を用いる。
新たに配布されたデータセットでは、音声のみが強いモダリティであり、コンテンツタイプとレベル分類において、重み付き平均F1スコアが最大81%、97%に達することが示されている。
論文 参考訳(メタデータ) (2021-07-27T10:36:19Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Top-1 CORSMAL Challenge 2020 Submission: Filling Mass Estimation Using
Multi-modal Observations of Human-robot Handovers [4.760079434948198]
CORSMAL 2020 Challengeは、ロボットが人間によって保持される容器の充填質量を見積もる必要があるという問題の認識部分に焦点を当てている。
本稿では,充填量,充填量,容器容量の3つの重要な指標を予測するためのマルチモーダル手法を提案する。
提案手法は,CORSMAL 2020 Challengeにおける公立サブセットと私設サブセットの両方における全サブセットのうち,Top-1の総合的なパフォーマンスを得た。
論文 参考訳(メタデータ) (2020-12-02T16:31:03Z) - Nothing But Geometric Constraints: A Model-Free Method for Articulated
Object Pose Estimation [89.82169646672872]
本稿では,ロボットアームの関節構成を,モデルに先入観を持たずにRGBまたはRGB-D画像のシーケンスから推定する,教師なし視覚ベースシステムを提案する。
我々は,古典幾何学的定式化と深層学習を組み合わせることで,この課題を解決するために,極性多剛体制約を拡張した。
論文 参考訳(メタデータ) (2020-11-30T20:46:48Z) - Can I Pour into It? Robot Imagining Open Containability Affordance of
Previously Unseen Objects via Physical Simulations [12.685608639818513]
我々はUR5マニピュレータにイマジネーション手法を実装した。
ロボットはRGB-Dカメラでオブジェクトを自律的にスキャンする。
粒状物質のオープンコンテナ分類と自律注水について,本手法の評価を行った。
論文 参考訳(メタデータ) (2020-08-05T19:00:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。