論文の概要: ScrewNet: Category-Independent Articulation Model Estimation From Depth
Images Using Screw Theory
- arxiv url: http://arxiv.org/abs/2008.10518v3
- Date: Mon, 19 Jul 2021 22:55:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 12:16:08.629518
- Title: ScrewNet: Category-Independent Articulation Model Estimation From Depth
Images Using Screw Theory
- Title(参考訳): ScrewNet: Screw理論を用いた深度画像からのカテゴリー非依存的調音モデル推定
- Authors: Ajinkya Jain and Rudolf Lioutikov and Caleb Chuck and Scott Niekum
- Abstract要約: ScrewNetは、深度画像から直接オブジェクトの調音モデルを推定する新しいアプローチである。
我々は2つのベンチマークデータセットに対するアプローチを評価し、その性能を現在の最先端手法と比較する。
- 参考スコア(独自算出の注目度): 23.861024692501083
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robots in human environments will need to interact with a wide variety of
articulated objects such as cabinets, drawers, and dishwashers while assisting
humans in performing day-to-day tasks. Existing methods either require objects
to be textured or need to know the articulation model category a priori for
estimating the model parameters for an articulated object. We propose ScrewNet,
a novel approach that estimates an object's articulation model directly from
depth images without requiring a priori knowledge of the articulation model
category. ScrewNet uses screw theory to unify the representation of different
articulation types and perform category-independent articulation model
estimation. We evaluate our approach on two benchmarking datasets and compare
its performance with a current state-of-the-art method. Results demonstrate
that ScrewNet can successfully estimate the articulation models and their
parameters for novel objects across articulation model categories with better
on average accuracy than the prior state-of-the-art method. Project webpage:
https://pearl-utexas.github.io/ScrewNet/
- Abstract(参考訳): 人間の環境にあるロボットは、キャビネット、引き出し、食器洗い機など、さまざまな関節のある物体と対話し、人間の日々の作業を支援する必要がある。
既存の手法では、テクスチャ化されるオブジェクトを必要とするか、またはarticulated objectのモデルパラメータを推定するために先行してarticulation model categoryを知っておく必要がある。
本研究では,物体の調音モデルに対する事前知識を必要とせず,奥行き画像から物体の調音モデルを直接推定する新しい手法であるs screwnetを提案する。
screwnetはネジ理論を用いて異なる調音タイプの表現を統一し、カテゴリに依存しない調音モデル推定を行う。
2つのベンチマークデータセットに対するアプローチを評価し、その性能を現在の最先端手法と比較する。
以上の結果から,ScrewNetは,従来の最先端手法よりも平均精度が良く,新規対象に対する調音モデルとそのパラメータを推定できることを示した。
プロジェクトWebページ: https://pearl-utexas.github.io/ScrewNet/
関連論文リスト
- FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects [55.77542145604758]
FoundationPoseは、6Dオブジェクトのポーズ推定と追跡のための統合基盤モデルである。
我々のアプローチは、微調整なしで、テスト時に新しいオブジェクトに即座に適用できる。
論文 参考訳(メタデータ) (2023-12-13T18:28:09Z) - GAMMA: Generalizable Articulation Modeling and Manipulation for
Articulated Objects [53.965581080954905]
本稿では,GAMMA(Generalizable Articulation Modeling and Manipulating for Articulated Objects)の新たな枠組みを提案する。
GAMMAは,異なるカテゴリーの多種多様な調音オブジェクトから,調音モデルと手取りポーズの相違を学習する。
その結果, GAMMA はSOTA の調音モデルおよび操作アルゴリズムを, 目に見えない, 横断的な調音オブジェクトで著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2023-09-28T08:57:14Z) - Comparing Foundation Models using Data Kernels [13.099029073152257]
基礎モデルの埋め込み空間幾何学を直接比較するための方法論を提案する。
提案手法はランダムグラフ理論に基づいており, 埋め込み類似性の有効な仮説検証を可能にする。
本稿では, 距離関数を付加したモデルの多様体が, 下流の指標と強く相関することを示す。
論文 参考訳(メタデータ) (2023-05-09T02:01:07Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - Interacting Hand-Object Pose Estimation via Dense Mutual Attention [97.26400229871888]
3Dハンドオブジェクトのポーズ推定は多くのコンピュータビジョンアプリケーションの成功の鍵となる。
本研究では,手と物体間の微粒な依存関係をモデル化できる新しい相互注意機構を提案する。
提案手法は,高品質かつリアルタイムな推論速度で,物理的に妥当なポーズを生成できる。
論文 参考訳(メタデータ) (2022-11-16T10:01:33Z) - Are Neural Topic Models Broken? [81.15470302729638]
トピックモデルの自動評価と人的評価の関係について検討する。
ニューラルトピックモデルは、確立された古典的手法と比較して、両方の点においてより悪くなる。
論文 参考訳(メタデータ) (2022-10-28T14:38:50Z) - IterMiUnet: A lightweight architecture for automatic blood vessel
segmentation [10.538564380139483]
本稿では,新しい軽量畳み込み型セグメンテーションモデルであるIterMiUnetを提案する。
MiUnetモデルのエンコーダ・デコーダ構造を組み込むことで、その非常にパラメトリズドな性質を克服する。
提案モデルは,多くの疾患の早期診断のためのツールとして活用される可能性が大きい。
論文 参考訳(メタデータ) (2022-08-02T14:33:14Z) - Inter-model Interpretability: Self-supervised Models as a Case Study [0.2578242050187029]
テキスト・インター・モデル・インタプリタビリティを導入するためのDissectと呼ばれる最近の解釈可能性技術を構築した。
我々は、学習概念の観点から、モデル間の近さを明らかにする学習概念埋め込み空間に、トップパフォーマンスの自己教師型モデル13を投影する。
この実験により、モデルを3つのカテゴリに分類し、異なるタスクが必要とする視覚概念の種類を初めて明らかにしました。
論文 参考訳(メタデータ) (2022-07-24T22:50:18Z) - Category-Independent Articulated Object Tracking with Factor Graphs [14.574389906480867]
アーティキュレートされた物体は、カテゴリー的先行と矛盾する予期せぬ調音機構を持つ。
RGB-D画像のシーケンスから未知物体の調音モデルを予測するためのカテゴリ非依存のフレームワークを提案する。
我々の視覚知覚と因子グラフモジュールは、シミュレーションデータに基づくベースラインよりも優れており、実世界のデータに対する因子グラフの適用性を示している。
論文 参考訳(メタデータ) (2022-05-07T20:59:44Z) - Distributional Depth-Based Estimation of Object Articulation Models [21.046351215949525]
本研究では,奥行き画像から直接,調音モデルパラメータの分布を効率よく学習する手法を提案する。
私たちのコアコントリビューションには、剛体変換に対する分布の新しい表現が含まれています。
本稿では,カテゴリに依存しない調音モデル推定を行う新しい深層学習手法DUST-netを提案する。
論文 参考訳(メタデータ) (2021-08-12T17:44:51Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。