論文の概要: Viewpoint Generation using Feature-Based Constrained Spaces for Robot
Vision Systems
- arxiv url: http://arxiv.org/abs/2306.06969v1
- Date: Mon, 12 Jun 2023 08:57:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 15:19:33.062726
- Title: Viewpoint Generation using Feature-Based Constrained Spaces for Robot
Vision Systems
- Title(参考訳): ロボットビジョンシステムのための特徴量制約空間を用いた視点生成
- Authors: Alejandro Maga\~na, Jonas Dirr, Philipp Bauer, Gunther Reinhart
- Abstract要約: この出版物は幾何学的問題としての視点の生成を概説し、それを解決するための一般化された理論的枠組みを紹介している。
$mathcalC$-space は、視点制約が分散する位相空間として理解することができる。
紹介された$mathcalC$-spacesは、汎用ドメインと視点制約モデルに基づいて、現在のフレームワークを異なるアプリケーションやロボットビジョンシステムに転送しやすくする。
- 参考スコア(独自算出の注目度): 63.942632088208505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The efficient computation of viewpoints under consideration of various system
and process constraints is a common challenge that any robot vision system is
confronted with when trying to execute a vision task. Although fundamental
research has provided solid and sound solutions for tackling this problem, a
holistic framework that poses its formal description, considers the
heterogeneity of robot vision systems, and offers an integrated solution
remains unaddressed. Hence, this publication outlines the generation of
viewpoints as a geometrical problem and introduces a generalized theoretical
framework based on Feature-Based Constrained Spaces ($\mathcal{C}$-spaces) as
the backbone for solving it. A $\mathcal{C}$-space can be understood as the
topological space that a viewpoint constraint spans, where the sensor can be
positioned for acquiring a feature while fulfilling the regarded constraint.
The present study demonstrates that many viewpoint constraints can be
efficiently formulated as $\mathcal{C}$-spaces providing geometric,
deterministic, and closed solutions. The introduced $\mathcal{C}$-spaces are
characterized based on generic domain and viewpoint constraints models to ease
the transferability of the present framework to different applications and
robot vision systems. The effectiveness and efficiency of the concepts
introduced are verified on a simulation-based scenario and validated on a real
robot vision system comprising two different sensors.
- Abstract(参考訳): 様々なシステムやプロセスの制約を考慮した視点の効率的な計算は、視覚タスクを実行しようとするロボットビジョンシステムが直面する共通の課題である。
基本的な研究はこの問題に取り組むための堅実かつ健全な解決策を提供してきたが、その形式的記述を定め、ロボットビジョンシステムの多様性を考慮し、統合ソリューションを提供する包括的枠組みは、未解決のままである。
したがって、この出版物は幾何学的問題としての視点の生成を概説し、それを解決するバックボーンとして特徴ベース制約空間("\mathcal{C}$-spaces")に基づく一般化された理論的枠組みを導入する。
$\mathcal{c}$-空間は視点制約が広がる位相空間として理解でき、そこでは、考慮された制約を満たしながら特徴を取得するためにセンサを配置することができる。
本研究は、幾何学的、決定論的、閉な解を提供するような多くの視点制約を$\mathcal{c}$-空間として効率的に定式化できることを実証する。
導入された$\mathcal{C}$-spacesは、汎用ドメインと視点制約モデルに基づいて特徴づけられ、現在のフレームワークを異なるアプリケーションやロボットビジョンシステムに転送しやすくする。
提案する概念の有効性と効率をシミュレーションに基づくシナリオで検証し、2つの異なるセンサーからなる実ロボットビジョンシステム上で検証する。
関連論文リスト
- Self-Localized Collaborative Perception [49.86110931859302]
我々は,新しい自己局在型協調認識システムであるMathttCoBEVGlue$を提案する。
$mathttCoBEVGlue$は、エージェント間の相対的なポーズを提供する新しい空間アライメントモジュールである。
$mathttCoBEVGlue$は任意のローカライゼーションノイズとアタックの下で最先端の検出性能を達成する。
論文 参考訳(メタデータ) (2024-06-18T15:26:54Z) - Hierarchical Invariance for Robust and Interpretable Vision Tasks at Larger Scales [54.78115855552886]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z) - 2D Image head pose estimation via latent space regression under
occlusion settings [7.620379605206596]
この戦略は、隠蔽されたシナリオの問題をよりよく構造化するための基本的な鍵として、潜在空間回帰に基づいている。
提案手法の有用性として, (i) BIWIとAFLW2000データセットの2つの包括バージョン, (ii) Pandoraデータセットのリアルタイムオクルージョン, (iii) 人間とロボットの相互作用シナリオに対する実生活応用について述べる。
論文 参考訳(メタデータ) (2023-11-10T12:53:02Z) - Learning Environment-Aware Affordance for 3D Articulated Object
Manipulation under Occlusions [9.400505355134728]
本稿では,オブジェクトレベルの動作可能な事前条件と環境制約の両方を組み込んだ環境対応アベイランスフレームワークを提案する。
本稿では,1つのオクルーダーを含むシーンを学習し,複雑なオクルーダーの組み合わせでシーンに一般化できる新しいコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-14T08:24:32Z) - Challenges for Monocular 6D Object Pose Estimation in Robotics [12.037567673872662]
ロボット工学とコンピュータビジョンの両方から、最近の出版物について統一された視点を提供する。
我々は,オクルージョン処理,新しいポーズ表現,カテゴリーレベルのポーズ推定の形式化と改善が依然として基本的な課題であることがわかった。
これらの問題に対処するためには、オントロジ的推論、変形可能性処理、シーンレベルの推論、現実的なデータセット、アルゴリズムの生態的フットプリントを改善する必要がある。
論文 参考訳(メタデータ) (2023-07-22T21:36:57Z) - A Survey on Deep Learning-Based Monocular Spacecraft Pose Estimation:
Current State, Limitations and Prospects [7.08026800833095]
非協力宇宙船の姿勢を推定することは、軌道上の視覚ベースのシステムを実現するための重要なコンピュータビジョン問題である。
コンピュータビジョンの一般的な傾向に続き、この問題を解決するためにディープラーニング(DL)手法を活用する研究がますます増えている。
有望な研究段階の結果にもかかわらず、実際のミッションでこのような方法が使われるのを防ぐ大きな課題が今も残っている。
論文 参考訳(メタデータ) (2023-05-12T09:52:53Z) - Universal Object Detection with Large Vision Model [79.06618136217142]
本研究は,大規模多領域普遍物体検出問題に焦点をあてる。
これらの課題に対処するために,ラベル処理,階層型設計,資源効率のよいモデルトレーニングを提案する。
本手法は,ロバスト・ビジョン・チャレンジ2022のオブジェクト検出トラックにおいて,優れた2位の地位を確保した。
論文 参考訳(メタデータ) (2022-12-19T12:40:13Z) - Nothing But Geometric Constraints: A Model-Free Method for Articulated
Object Pose Estimation [89.82169646672872]
本稿では,ロボットアームの関節構成を,モデルに先入観を持たずにRGBまたはRGB-D画像のシーケンスから推定する,教師なし視覚ベースシステムを提案する。
我々は,古典幾何学的定式化と深層学習を組み合わせることで,この課題を解決するために,極性多剛体制約を拡張した。
論文 参考訳(メタデータ) (2020-11-30T20:46:48Z) - Evidential Sparsification of Multimodal Latent Spaces in Conditional
Variational Autoencoders [63.46738617561255]
訓練された条件付き変分オートエンコーダの離散潜時空間をスパース化する問題を考察する。
顕在的理論を用いて、特定の入力条件から直接証拠を受け取る潜在クラスを特定し、そうでないクラスをフィルタリングする。
画像生成や人間の行動予測などの多様なタスクの実験により,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2020-10-19T01:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。