論文の概要: Egocentric Hierarchical Visual Semantics
- arxiv url: http://arxiv.org/abs/2305.05422v1
- Date: Tue, 9 May 2023 13:14:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 12:39:13.493035
- Title: Egocentric Hierarchical Visual Semantics
- Title(参考訳): Egocentric Hierarchical Visual Semantics
- Authors: Luca Erculiani, Andrea Bontempelli, Andrea Passerini, Fausto
Giunchiglia
- Abstract要約: 私たちは、人々がオブジェクトについてどう考えるか、機械がどう知覚するかの整合性に興味を持っている。つまり、ある概念に関連づけられたオブジェクトを考えるときに、オブジェクト認識が人間に類似したプロセスに従うべきであるという事実である。
究極のゴールは、ユーザと意味のある対話が可能なシステムを構築することであり、ユーザ自身の言葉で何を認識するかを記述することである。
- 参考スコア(独自算出の注目度): 19.365124976049636
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We are interested in aligning how people think about objects and what
machines perceive, meaning by this the fact that object recognition, as
performed by a machine, should follow a process which resembles that followed
by humans when thinking of an object associated with a certain concept. The
ultimate goal is to build systems which can meaningfully interact with their
users, describing what they perceive in the users' own terms. As from the field
of Lexical Semantics, humans organize the meaning of words in hierarchies where
the meaning of, e.g., a noun, is defined in terms of the meaning of a more
general noun, its genus, and of one or more differentiating properties, its
differentia. The main tenet of this paper is that object recognition should
implement a hierarchical process which follows the hierarchical semantic
structure used to define the meaning of words. We achieve this goal by
implementing an algorithm which, for any object, recursively recognizes its
visual genus and its visual differentia. In other words, the recognition of an
object is decomposed in a sequence of steps where the locally relevant visual
features are recognized. This paper presents the algorithm and a first
evaluation.
- Abstract(参考訳): 私たちは、人々がオブジェクトについてどう考えるか、機械がどう感じているのか、つまり、機械によって実行される物体認識は、ある概念に関連づけられた物体を考えるときに、人間が従うようなプロセスに従うべきであるという事実を一致させることに興味を持っています。
究極の目標は、ユーザと有意義に対話できるシステムを構築し、彼らがユーザ自身の言葉で何を認識しているかを説明することだ。
語彙意味論の分野において、人間は単語の意味を階層的に整理し、例えば名詞の意味はより一般的な名詞、その属、および1つまたはそれ以上の異なる性質、その区別によって定義される。
本論文の主な特徴は、単語の意味を定義するために用いられる階層的意味構造に従う階層的過程をオブジェクト認識が実装すべきである。
我々は、任意の対象に対して、その視覚的属とその視覚的相違を再帰的に認識するアルゴリズムを実装することで、この目標を達成する。
言い換えると、局所的に関連する視覚的特徴を認識する一連のステップで、オブジェクトの認識が分解される。
本稿では,アルゴリズムと初回評価について述べる。
関連論文リスト
- Learning Object Semantic Similarity with Self-Supervision [7.473473243713322]
人間はその意味的関連性に基づいて2つのオブジェクトの類似性を判断する。
オブジェクトとカテゴリ間の意味的関係について、人間がどのように学ぶかは、まだ不明である。
論文 参考訳(メタデータ) (2024-04-19T14:08:17Z) - A Generative Approach for Wikipedia-Scale Visual Entity Recognition [56.55633052479446]
与えられたクエリ画像をWikipediaにある600万の既存エンティティの1つにマッピングするタスクに対処する。
本稿では,対象エンティティを識別する「意味的・識別的コード」の自動復号化を学習する,新しい生成エンティティ認識フレームワークを紹介する。
論文 参考訳(メタデータ) (2024-03-04T13:47:30Z) - Domain Embeddings for Generating Complex Descriptions of Concepts in
Italian Language [65.268245109828]
電子辞書から抽出した言語情報と語彙情報に富んだ分布意味資源を提案する。
リソースは21のドメイン固有の行列と1つの包括的なマトリックスとグラフィカルユーザインタフェースから構成される。
本モデルは,具体的概念知識に直接関連した行列を選択することにより,概念の意味的記述の推論を容易にする。
論文 参考訳(メタデータ) (2024-02-26T15:04:35Z) - A semantics-driven methodology for high-quality image annotation [4.7590051176368915]
本稿では,統合自然言語処理,知識表現,コンピュータビジョンの方法論であるvTelosを提案する。
vTelosの重要な要素は、WordNetのレキシコセマンティック階層を、自然言語ラベルの意味を提供する主要な手段として利用することである。
この手法はImageNet階層のサブセットをポップアップさせるイメージ上で検証される。
論文 参考訳(メタデータ) (2023-07-26T11:38:45Z) - Visual Superordinate Abstraction for Robust Concept Learning [80.15940996821541]
概念学習は言語意味論と結びついた視覚表現を構成する。
視覚概念の本質的な意味的階層を探索する失敗のボトルネックについて説明する。
本稿では,意味認識型視覚サブ空間を明示的にモデル化するビジュアル・スーパーオーディネート・抽象化・フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-28T14:27:38Z) - Identifying concept libraries from language about object structure [56.83719358616503]
自然言語記述を2Kプロシージャ生成オブジェクトの多種多様なセットに利用して,ユーザが使用する部分を特定する。
我々は、異なる部分概念を含むプログラムライブラリの空間の探索として、この問題を形式化する。
自然言語と構造化されたプログラム表現を組み合わせることで、人々が名前をつける部分概念を規定する基本的な情報理論的なトレードオフを発見する。
論文 参考訳(メタデータ) (2022-05-11T17:49:25Z) - Building a visual semantics aware object hierarchy [0.0]
視覚的意味論を意識したオブジェクト階層を構築するための新しい教師なし手法を提案する。
この論文の直感は、概念が階層的に組織化されている現実世界の知識表現から来ています。
評価は2つの部分から構成され、まず、構築された階層をオブジェクト認識タスクに適用し、その上で、視覚的階層と既存の語彙階層を比較して、提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-02-26T00:10:21Z) - Object Recognition as Classification of Visual Properties [5.1652563977194434]
本稿では,Ranganathanの4段階の顔付き知識組織プロセスに基づく物体認識プロセスを提案する。
我々は,オブジェクト認識リソースの構築を目的とした,現在進行中のMultiMedia UKCを紹介した。
論文 参考訳(メタデータ) (2021-12-20T13:50:07Z) - Towards Visual Semantics [17.1623244298824]
私たちは、人間の視覚的知覚の精神表現、すなわち概念の構築方法を研究します。
本稿では,分類概念と呼ばれる概念に対応する物質概念を学習する理論とアルゴリズムを提案する。
予備的な実験は、アルゴリズムが正しい精度で属と分化の概念を取得することを証明している。
論文 参考訳(メタデータ) (2021-04-26T07:28:02Z) - Understanding Synonymous Referring Expressions via Contrastive Features [105.36814858748285]
画像とオブジェクトインスタンスレベルでのコントラスト機能を学ぶためのエンドツーエンドのトレーニング可能なフレームワークを開発しています。
提案アルゴリズムをいくつかのベンチマークデータセットで評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2021-04-20T17:56:24Z) - Human Correspondence Consensus for 3D Object Semantic Understanding [56.34297279246823]
本稿では,CorresPondenceNetという新しいデータセットを提案する。
このデータセットに基づいて、新しい測地的整合性損失を伴う密接なセマンティック埋め込みを学習することができる。
CorresPondenceNetは異種オブジェクトの細粒度理解を促進できるだけでなく、クロスオブジェクト登録や部分オブジェクトマッチングも実現できた。
論文 参考訳(メタデータ) (2019-12-29T04:24:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。