論文の概要: Knowledge-Guided Object Discovery with Acquired Deep Impressions
- arxiv url: http://arxiv.org/abs/2103.10611v1
- Date: Fri, 19 Mar 2021 03:17:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 14:42:19.868765
- Title: Knowledge-Guided Object Discovery with Acquired Deep Impressions
- Title(参考訳): 深部印象による知識誘導型物体発見
- Authors: Jinyang Yuan, Bin Li, Xiangyang Xue
- Abstract要約: 物体の知識を「印象」として継続的に学習するADI(Acquired Deep Impressions)というフレームワークを紹介します。
ADIはまず、1つのオブジェクトを含むシーンイメージから、監視された方法で知識を得ます。
そして、これまで見たことのないオブジェクトを含む可能性のある、新しいマルチオブジェクトシーンイメージから学習する。
- 参考スコア(独自算出の注目度): 41.07379505694274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a framework called Acquired Deep Impressions (ADI) which
continuously learns knowledge of objects as "impressions" for compositional
scene understanding. In this framework, the model first acquires knowledge from
scene images containing a single object in a supervised manner, and then
continues to learn from novel multi-object scene images which may contain
objects that have not been seen before without any further supervision, under
the guidance of the learned knowledge as humans do. By memorizing impressions
of objects into parameters of neural networks and applying the generative
replay strategy, the learned knowledge can be reused to generate images with
pseudo-annotations and in turn assist the learning of novel scenes. The
proposed ADI framework focuses on the acquisition and utilization of knowledge,
and is complementary to existing deep generative models proposed for
compositional scene representation. We adapt a base model to make it fall
within the ADI framework and conduct experiments on two types of datasets.
Empirical results suggest that the proposed framework is able to effectively
utilize the acquired impressions and improve the scene decomposition
performance.
- Abstract(参考訳): 本稿では,ADI (Aquired Deep Impressions) というフレームワークを提案し,コンストラクショナルシーン理解のための「印象」としてオブジェクトの知識を継続的に学習する。
この枠組みでは、まず1つのオブジェクトを含むシーン画像からの知識を教師ありの方法で獲得し、その後、人間と同じように学習した知識の指導のもと、これまで見てきたことのないオブジェクトを含む、新たな多目的シーン画像から学習を続ける。
物体の印象をニューラルネットワークのパラメータに記憶し、生成的再生戦略を適用することにより、学習知識を再利用して擬似アノテーションで画像を生成し、新たなシーンの学習を支援する。
提案するadiフレームワークは知識の獲得と活用に焦点をあて、構成シーン表現に提案されている既存の深層生成モデルと補完するものである。
ベースモデルを適用してadiフレームワークに当てはめ、2種類のデータセットで実験を行います。
実験結果から,提案手法は得られた印象を効果的に活用し,シーン分解性能を向上させることが示唆された。
関連論文リスト
- Augmented Commonsense Knowledge for Remote Object Grounding [67.30864498454805]
エージェントナビゲーションを改善するための時間的知識グラフとして,コモンセンス情報を活用するための拡張コモンセンス知識モデル(ACK)を提案する。
ACKは知識グラフ対応のクロスモーダルとコンセプトアグリゲーションモジュールで構成され、視覚的表現と視覚的テキストデータアライメントを強化する。
我々は、より正確な局所的な行動予測につながるコモンセンスに基づく意思決定プロセスのための新しいパイプラインを追加します。
論文 参考訳(メタデータ) (2024-06-03T12:12:33Z) - Context-driven Visual Object Recognition based on Knowledge Graphs [0.8701566919381223]
本稿では,知識グラフに符号化された外部文脈知識を用いて,ディープラーニング手法を強化する手法を提案する。
我々は、異なる文脈ビューが同じ画像データセットの学習対象表現に与える影響を調べるために、一連の実験を行った。
論文 参考訳(メタデータ) (2022-10-20T13:09:00Z) - Learning by Asking Questions for Knowledge-based Novel Object
Recognition [64.55573343404572]
実世界のオブジェクト認識には、認識すべきオブジェクトクラスが多数存在する。教師付き学習に基づく従来の画像認識は、トレーニングデータに存在するオブジェクトクラスのみを認識できるため、現実の世界においては限定的な適用性を有する。
そこで本研究では,モデルが新たなオブジェクトを瞬時に認識するのに役立つ質問生成を通じて,外部知識を取得するための枠組みについて検討する。
我々のパイプラインは、オブジェクトベースのオブジェクト認識と、新しい知識を得るために知識を意識した質問を生成する質問生成という2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-10-12T02:51:58Z) - Few-Shot Object Detection by Knowledge Distillation Using
Bag-of-Visual-Words Representations [58.48995335728938]
対象検出器の学習を導くための新しい知識蒸留フレームワークを設計する。
まず,視覚単語の代表的な袋を学習するための単語の位置認識モデルを提案する。
次に、2つの異なる特徴空間において、画像が一貫したBoVW表現を持つべきであるという事実に基づいて知識蒸留を行う。
論文 参考訳(メタデータ) (2022-07-25T10:40:40Z) - K-LITE: Learning Transferable Visual Models with External Knowledge [242.3887854728843]
K-LITE (Knowledge-augmented Language- Image Training and Evaluation) は、外部知識を活用して伝達可能な視覚システムを構築する戦略である。
トレーニングでは、WordNetとWiktionaryの知識で自然言語のエンティティを豊かにする。
評価において、自然言語は外部知識で拡張され、学習された視覚概念を参照するために使用される。
論文 参考訳(メタデータ) (2022-04-20T04:47:01Z) - Compositional Scene Representation Learning via Reconstruction: A Survey [48.33349317481124]
構成シーン表現学習はそのような能力を実現するタスクである。
ディープニューラルネットワークは表現学習において有利であることが証明されている。
大量のラベルのないデータを使用し、費用がかかるデータアノテーションを避けることができるため、再構築による学習は有利である。
論文 参考訳(メタデータ) (2022-02-15T02:14:05Z) - Ontology-based n-ball Concept Embeddings Informing Few-shot Image
Classification [5.247029505708008]
ViOCEは、ニューラルネットワークベースの視覚アーキテクチャに、$n$-ballの概念を組み込む形で、象徴的な知識を統合する。
本稿では,2つの標準ベンチマークにおいて,画像分類のタスクを用いてViOCEを評価し,優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-19T05:35:43Z) - Learning semantic Image attributes using Image recognition and knowledge
graph embeddings [0.3222802562733786]
本稿では,知識グラフ埋め込みモデルと認識された画像の属性を組み合わせることで,画像の意味的属性を学習するための共有学習手法を提案する。
提案されたアプローチは、大量のデータから学習するフレームワークと、新しい知識を推論するために限定的な述語を使用するフレームワークのギャップを埋めるためのステップである。
論文 参考訳(メタデータ) (2020-09-12T15:18:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。