論文の概要: Beyond Object Recognition: A New Benchmark towards Object Concept
Learning
- arxiv url: http://arxiv.org/abs/2212.02710v3
- Date: Sun, 20 Aug 2023 15:44:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 02:17:35.404663
- Title: Beyond Object Recognition: A New Benchmark towards Object Concept
Learning
- Title(参考訳): オブジェクト認識を超えて: オブジェクト概念学習のための新しいベンチマーク
- Authors: Yong-Lu Li, Yue Xu, Xinyu Xu, Xiaohan Mao, Yuan Yao, Siqi Liu, Cewu Lu
- Abstract要約: 本稿では,オブジェクト理解の包絡を推し進めるための課題であるオブジェクト概念学習タスクを提案する。
機械は、オブジェクトの余裕を推論し、同時に理由を与える必要がある。
OCLの因果構造を解析することにより、ベースラインである Object Concept Reasoning Network (OCRN) を提示する。
- 参考スコア(独自算出の注目度): 57.94446186103925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding objects is a central building block of artificial intelligence,
especially for embodied AI. Even though object recognition excels with deep
learning, current machines still struggle to learn higher-level knowledge,
e.g., what attributes an object has, and what can we do with an object. In this
work, we propose a challenging Object Concept Learning (OCL) task to push the
envelope of object understanding. It requires machines to reason out object
affordances and simultaneously give the reason: what attributes make an object
possesses these affordances. To support OCL, we build a densely annotated
knowledge base including extensive labels for three levels of object concept
(category, attribute, affordance), and the causal relations of three levels. By
analyzing the causal structure of OCL, we present a baseline, Object Concept
Reasoning Network (OCRN). It leverages causal intervention and concept
instantiation to infer the three levels following their causal relations. In
experiments, OCRN effectively infers the object knowledge while following the
causalities well. Our data and code are available at https://mvig-rhos.com/ocl.
- Abstract(参考訳): オブジェクトを理解することは人工知能の中心的な構成要素であり、特に具体化されたAIのためのものである。
オブジェクト認識はディープラーニングで優れているが、現在のマシンは、オブジェクトが持つ属性やオブジェクトで何ができるかといった、高度な知識を学ぶのに苦労している。
本稿では,オブジェクト理解の包含性を高めるための挑戦的オブジェクト概念学習(ocl)タスクを提案する。
マシンは、オブジェクトアフォーアンスを推論し、同時に理由を与える必要がある: オブジェクトがアフォーアンスを持つ属性は何か。
OCLをサポートするために,3段階のオブジェクト概念(カテゴリ,属性,アベイランス)と3段階の因果関係を含む,多彩な注釈付き知識ベースを構築した。
OCLの因果構造を解析することにより,OCRN(Object Concept Reasoning Network)のベースラインを提示する。
因果関係に従う3つのレベルを推測するために因果的介入と概念のインスタンス化を利用する。
実験では、OCRNは因果関係をうまく追従しながらオブジェクトの知識を効果的に推論する。
私たちのデータとコードはhttps://mvig-rhos.com/ocl.org/で利用可能です。
関連論文リスト
- ConceptFactory: Facilitate 3D Object Knowledge Annotation with Object Conceptualization [41.54457853741178]
ConceptFactoryは、視覚とロボティクスの両方の側面から総合的なオブジェクト知識を学ぶために、機械学習を促進することを目的としている。
ConceptFactory SuiteとConceptFactory Assetの2つの重要な部分で構成されている。
論文 参考訳(メタデータ) (2024-11-01T08:50:04Z) - Help Me Identify: Is an LLM+VQA System All We Need to Identify Visual Concepts? [62.984473889987605]
本稿では,大規模言語モデルとVQA(Visual Question Answering)システムを活用した,視覚概念学習のためのゼロショットフレームワークを提案する。
VQAシステムに問い合わせ画像とともにこれらの質問を行い、回答を集約し、テスト画像中のオブジェクトの有無を判定する。
実験では,既存のゼロショット視覚分類法や少数ショット概念学習手法と同等の性能を示した。
論文 参考訳(メタデータ) (2024-10-17T15:16:10Z) - Discovering Conceptual Knowledge with Analytic Ontology Templates for Articulated Objects [42.9186628100765]
我々は,概念レベルでの動作を通じて,機械知能に類似の能力を持たせることを目指している。
AOT駆動のアプローチは、3つの重要な観点で利益をもたらす。
論文 参考訳(メタデータ) (2024-09-18T04:53:38Z) - Entity-Centric Reinforcement Learning for Object Manipulation from Pixels [22.104757862869526]
強化学習(RL)は、オブジェクト操作を学ぶための一般的なアプローチを提供する。
実際には、数個以上のオブジェクトを持つドメインは、次元の呪いのためにRLエージェントにとって難しい。
本稿では、複数のオブジェクトとその相互作用を表現するのに適した視覚的RLに対して、構造化されたアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-01T16:25:08Z) - Localizing Active Objects from Egocentric Vision with Symbolic World
Knowledge [62.981429762309226]
タスクの指示をエゴセントリックな視点から積極的に下す能力は、AIエージェントがタスクを達成したり、人間をバーチャルに支援する上で不可欠である。
本稿では,現在進行中のオブジェクトの役割を学習し,指示から正確に抽出することで,アクティブなオブジェクトをローカライズするフレーズグラウンドモデルの性能を向上させることを提案する。
Ego4DおよびEpic-Kitchensデータセットに関するフレームワークの評価を行った。
論文 参考訳(メタデータ) (2023-10-23T16:14:05Z) - CoTDet: Affordance Knowledge Prompting for Task Driven Object Detection [42.2847114428716]
タスク駆動オブジェクト検出は、イメージ内のタスクを提供するのに適したオブジェクトインスタンスを検出することを目的としている。
その課題は、従来のオブジェクト検出のためのクローズドなオブジェクト語彙に制限されるほど多様すぎるタスクのために利用できるオブジェクトカテゴリにある。
本稿では,オブジェクトカテゴリではなく,異なるオブジェクトが同じタスクを達成できる共通属性について検討する。
論文 参考訳(メタデータ) (2023-09-03T06:18:39Z) - Learning by Asking Questions for Knowledge-based Novel Object
Recognition [64.55573343404572]
実世界のオブジェクト認識には、認識すべきオブジェクトクラスが多数存在する。教師付き学習に基づく従来の画像認識は、トレーニングデータに存在するオブジェクトクラスのみを認識できるため、現実の世界においては限定的な適用性を有する。
そこで本研究では,モデルが新たなオブジェクトを瞬時に認識するのに役立つ質問生成を通じて,外部知識を取得するための枠組みについて検討する。
我々のパイプラインは、オブジェクトベースのオブジェクト認識と、新しい知識を得るために知識を意識した質問を生成する質問生成という2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-10-12T02:51:58Z) - PartAfford: Part-level Affordance Discovery from 3D Objects [113.91774531972855]
パートレベルの空き地探索(PartAfford)の課題について紹介する。
対象物当たりの空きラベルのみを考慮し、(i)3D形状を部品に分解し、(ii)各部品が特定の空きカテゴリに対応する方法を検出する。
本稿では,パーセンテージ・セットの監督と幾何学的原始正規化のみを活用することで,パートレベルの表現を発見する新しい学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-28T02:58:36Z) - Learning Object Permanence from Video [46.34427538905761]
本稿では,データからオブジェクトパーマンスを学習するためのセットアップを紹介する。
本稿では,この学習問題を,対象が可視である4つの構成要素,(2)隠蔽,(3)他の対象が包含,(4)包含対象が担持する4つの要素に分解すべき理由を説明する。
そして、これらの4つのシナリオの下でオブジェクトの位置を予測することを学習する統合されたディープアーキテクチャを提示します。
論文 参考訳(メタデータ) (2020-03-23T18:03:01Z) - A Review on Intelligent Object Perception Methods Combining
Knowledge-based Reasoning and Machine Learning [60.335974351919816]
物体知覚はコンピュータビジョンの基本的なサブフィールドである。
最近の研究は、物体の視覚的解釈のインテリジェンスレベルを拡大するために、知識工学を統合する方法を模索している。
論文 参考訳(メタデータ) (2019-12-26T13:26:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。