論文の概要: ConceptFactory: Facilitate 3D Object Knowledge Annotation with Object Conceptualization
- arxiv url: http://arxiv.org/abs/2411.00448v1
- Date: Fri, 01 Nov 2024 08:50:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 21:27:19.721237
- Title: ConceptFactory: Facilitate 3D Object Knowledge Annotation with Object Conceptualization
- Title(参考訳): ConceptFactory: オブジェクト概念化による3Dオブジェクト知識アノテーションのファシリテート
- Authors: Jianhua Sun, Yuxuan Li, Longfei Xu, Nange Wang, Jiude Wei, Yining Zhang, Cewu Lu,
- Abstract要約: ConceptFactoryは、視覚とロボティクスの両方の側面から総合的なオブジェクト知識を学ぶために、機械学習を促進することを目的としている。
ConceptFactory SuiteとConceptFactory Assetの2つの重要な部分で構成されている。
- 参考スコア(独自算出の注目度): 41.54457853741178
- License:
- Abstract: We present ConceptFactory, a novel scope to facilitate more efficient annotation of 3D object knowledge by recognizing 3D objects through generalized concepts (i.e. object conceptualization), aiming at promoting machine intelligence to learn comprehensive object knowledge from both vision and robotics aspects. This idea originates from the findings in human cognition research that the perceptual recognition of objects can be explained as a process of arranging generalized geometric components (e.g. cuboids and cylinders). ConceptFactory consists of two critical parts: i) ConceptFactory Suite, a unified toolbox that adopts Standard Concept Template Library (STL-C) to drive a web-based platform for object conceptualization, and ii) ConceptFactory Asset, a large collection of conceptualized objects acquired using ConceptFactory suite. Our approach enables researchers to effortlessly acquire or customize extensive varieties of object knowledge to comprehensively study different object understanding tasks. We validate our idea on a wide range of benchmark tasks from both vision and robotics aspects with state-of-the-art algorithms, demonstrating the high quality and versatility of annotations provided by our approach. Our website is available at https://apeirony.github.io/ConceptFactory.
- Abstract(参考訳): 汎用概念(オブジェクト概念化)を通じて3次元オブジェクトを認識することにより,より効率的な3次元オブジェクト知識アノテーションを実現するための新しいスコープであるConceptFactoryを提案する。
この考え方は、物体の知覚的認識が一般化された幾何学的成分(例えば、立方体とシリンダー)を配置する過程として説明できるという人間の認知研究の発見に由来する。
ConceptFactoryは2つの重要な部分から構成される。
一 標準概念テンプレートライブラリ(STL-C)を採用した統一ツールボックスであるConceptFactory Suite
ii)ConceptFactory AssetはConceptFactoryスイートを使用して取得された概念化されたオブジェクトの大規模なコレクションである。
我々のアプローチは、研究者が広範囲のオブジェクト知識を積極的に取得またはカスタマイズし、異なるオブジェクト理解タスクを包括的に研究することを可能にする。
我々は、最先端のアルゴリズムを用いてビジョンとロボティクスの両面から幅広いベンチマークタスクでアイデアを検証し、我々のアプローチによって提供されるアノテーションの質と汎用性を実証した。
私たちのウェブサイトはhttps://apeirony.github.io/ConceptFactory.comで閲覧できます。
関連論文リスト
- Discovering Conceptual Knowledge with Analytic Ontology Templates for Articulated Objects [42.9186628100765]
我々は,概念レベルでの動作を通じて,機械知能に類似の能力を持たせることを目指している。
AOT駆動のアプローチは、3つの重要な観点で利益をもたらす。
論文 参考訳(メタデータ) (2024-09-18T04:53:38Z) - Deep Models for Multi-View 3D Object Recognition: A Review [16.500711021549947]
これまで,オブジェクト認識のための多視点3D表現は,最先端性能を実現する上で最も有望な結果であった。
本稿では,3次元分類・検索タスクにおける多視点オブジェクト認識手法の最近の進歩を包括的に紹介する。
論文 参考訳(メタデータ) (2024-04-23T16:54:31Z) - CLiC: Concept Learning in Context [54.81654147248919]
本稿では,視覚概念学習の最近の進歩に基づく。
ソースイメージから視覚概念を取得し、その後ターゲットイメージ内のオブジェクトに適用する。
概念学習のローカライズには,マスク内の概念と周囲の画像領域の両方を含むソフトマスクを用いる。
論文 参考訳(メタデータ) (2023-11-28T01:33:18Z) - Beyond Object Recognition: A New Benchmark towards Object Concept
Learning [57.94446186103925]
本稿では,オブジェクト理解の包絡を推し進めるための課題であるオブジェクト概念学習タスクを提案する。
機械は、オブジェクトの余裕を推論し、同時に理由を与える必要がある。
OCLの因果構造を解析することにより、ベースラインである Object Concept Reasoning Network (OCRN) を提示する。
論文 参考訳(メタデータ) (2022-12-06T02:11:34Z) - Learning by Asking Questions for Knowledge-based Novel Object
Recognition [64.55573343404572]
実世界のオブジェクト認識には、認識すべきオブジェクトクラスが多数存在する。教師付き学習に基づく従来の画像認識は、トレーニングデータに存在するオブジェクトクラスのみを認識できるため、現実の世界においては限定的な適用性を有する。
そこで本研究では,モデルが新たなオブジェクトを瞬時に認識するのに役立つ質問生成を通じて,外部知識を取得するための枠組みについて検討する。
我々のパイプラインは、オブジェクトベースのオブジェクト認識と、新しい知識を得るために知識を意識した質問を生成する質問生成という2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-10-12T02:51:58Z) - Object Recognition as Classification of Visual Properties [5.1652563977194434]
本稿では,Ranganathanの4段階の顔付き知識組織プロセスに基づく物体認識プロセスを提案する。
我々は,オブジェクト認識リソースの構築を目的とした,現在進行中のMultiMedia UKCを紹介した。
論文 参考訳(メタデータ) (2021-12-20T13:50:07Z) - Unsupervised Learning of Compositional Energy Concepts [70.11673173291426]
本稿では,概念を別個のエネルギー関数として発見し,表現するCOMETを提案する。
Cometは、統一されたフレームワークの下でのオブジェクトだけでなく、グローバルな概念も表現します。
論文 参考訳(メタデータ) (2021-11-04T17:46:12Z) - ObjectFolder: A Dataset of Objects with Implicit Visual, Auditory, and
Tactile Representations [52.226947570070784]
両課題に対処する100のオブジェクトからなるデータセットであるObjectを,2つの重要なイノベーションで紹介する。
まず、オブジェクトは視覚的、聴覚的、触覚的なすべてのオブジェクトの知覚データをエンコードし、多数の多感覚オブジェクト認識タスクを可能にする。
第2に、Objectは統一されたオブジェクト中心のシミュレーションと、各オブジェクトの視覚的テクスチャ、触覚的読み出し、触覚的読み出しに暗黙的な表現を採用しており、データセットの使用が柔軟で共有が容易である。
論文 参考訳(メタデータ) (2021-09-16T14:00:59Z) - VAT-Mart: Learning Visual Action Trajectory Proposals for Manipulating
3D ARTiculated Objects [19.296344218177534]
3次元の明瞭な物体の空間は、その無数の意味圏、多様な形状幾何学、複雑な部分関数に非常に豊富である。
それまでの作業は, 関節パラメータを推定し, 3次元関節物体の視覚的表現として機能する, 抽象運動学的な構造が主流であった。
本研究では,物体中心の動作可能な視覚的先入観を,知覚システムが運動構造推定よりも動作可能なガイダンスを出力する,新しい知覚-相互作用ハンドシェイキングポイントとして提案する。
論文 参考訳(メタデータ) (2021-06-28T07:47:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。