論文の概要: Incremental Bootstrapping and Classification of Structured Scenes in a Fuzzy Ontology
- arxiv url: http://arxiv.org/abs/2404.11744v1
- Date: Wed, 17 Apr 2024 20:51:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 20:00:41.809671
- Title: Incremental Bootstrapping and Classification of Structured Scenes in a Fuzzy Ontology
- Title(参考訳): ファジィオントロジーにおける構造的シーンのインクリメンタルブートストラップと分類
- Authors: Luca Buoncompagni, Fulvio Mastrogiovanni,
- Abstract要約: 構造化表現をブートストラップするロボットは、いくつかの知的なカテゴリーを分類する。
本稿では,構造化知識表現をクリップOWL-DLオントロジーでブートストラップするSITアルゴリズムを提案する。
ファジィSITは頑健であり, クリップな定式化の特性を保ち, ブートストラップ表現の強化を図っている。
- 参考スコア(独自算出の注目度): 3.0501524254444767
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We foresee robots that bootstrap knowledge representations and use them for classifying relevant situations and making decisions based on future observations. Particularly for assistive robots, the bootstrapping mechanism might be supervised by humans who should not repeat a training phase several times and should be able to refine the taught representation. We consider robots that bootstrap structured representations to classify some intelligible categories. Such a structure should be incrementally bootstrapped, i.e., without invalidating the identified category models when a new additional category is considered. To tackle this scenario, we presented the Scene Identification and Tagging (SIT) algorithm, which bootstraps structured knowledge representation in a crisp OWL-DL ontology. Over time, SIT bootstraps a graph representing scenes, sub-scenes and similar scenes. Then, SIT can classify new scenes within the bootstrapped graph through logic-based reasoning. However, SIT has issues with sensory data because its crisp implementation is not robust to perception noises. This paper presents a reformulation of SIT within the fuzzy domain, which exploits a fuzzy DL ontology to overcome the robustness issues. By comparing the performances of fuzzy and crisp implementations of SIT, we show that fuzzy SIT is robust, preserves the properties of its crisp formulation, and enhances the bootstrapped representations. On the contrary, the fuzzy implementation of SIT leads to less intelligible knowledge representations than the one bootstrapped in the crisp domain.
- Abstract(参考訳): 我々は、知識表現をブートストラップし、関連する状況の分類や将来の観察に基づく意思決定に使用するロボットを予見する。
特に補助ロボットの場合、ブートストラップ機構は、トレーニングフェーズを何回か繰り返すべきではなく、指示された表現を洗練できる人間によって監督される可能性がある。
構造化表現をブートストラップするロボットは、いくつかの知的なカテゴリーを分類する。
そのような構造は漸進的にブートストラップ(英語版)され、すなわち、新しい追加圏を考えると、特定された圏モデルを無効にしない。
このシナリオに対処するために、私たちは、構造化知識表現をクリップOWL-DLオントロジーでブートストラップするSITアルゴリズム(Scene Identification and Tagging)を提示した。
SITは時間とともに、シーン、サブシーン、その他のシーンを表すグラフをブートストラップする。
次に、SITは論理ベースの推論を通じてブートストラップグラフ内の新しいシーンを分類できる。
しかし、SITは知覚ノイズに頑健な実装であるため、知覚データに問題がある。
本稿では、ファジィDLオントロジーを利用したファジィ領域におけるSITの再構成について述べる。
SITのファジィ実装とクリップ実装の性能を比較することで、ファジィSITは頑健であり、そのクリップ表現の特性を保ち、ブートストラップされた表現を強化することを示す。
逆に、SITのファジィな実装は、crispドメインでブートストラップされたものよりも知的な知識表現が少ない。
関連論文リスト
- IFShip: A Large Vision-Language Model for Interpretable Fine-grained Ship Classification via Domain Knowledge-Enhanced Instruction Tuning [3.5441557443102174]
そこで本研究では,船の粒度分類を行うための大規模視覚言語モデル (LVLM) IFShipを提案する。
従来の方法とは異なり、IFShipは自然言語でFGSCの推論過程を正確に伝達することで、解釈可能性を向上させる。
論文 参考訳(メタデータ) (2024-08-13T04:36:18Z) - Lift, Splat, Map: Lifting Foundation Masks for Label-Free Semantic Scene Completion [7.781799395896687]
本研究では,鳥の視線における連続的,オープンなセマンティクスと高度認識の表現を予測するためのLSMapを提案する。
我々のモデルは1枚のRGBD画像しか必要とせず、人間のラベルを必要とせず、リアルタイムに動作する。
事前学習された表現は、教師なしのセマンティックシーンの完了時に、既存の視覚基盤モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-07-03T18:08:05Z) - ECLIPSE: Efficient Continual Learning in Panoptic Segmentation with Visual Prompt Tuning [54.68180752416519]
パノプティカルセグメンテーション(英: Panoptic segmentation)は、コンピュータビジョンの最先端タスクである。
ECLIPSE と呼ばれる Visual Prompt Tuning をベースとした,新規で効率的なパノプティカルセグメンテーション手法を提案する。
我々のアプローチは、基本モデルのパラメータを凍結し、小さなプロンプト埋め込みだけを微調整することであり、破滅的な忘れ物と塑性の両方に対処する。
論文 参考訳(メタデータ) (2024-03-29T11:31:12Z) - Structure-CLIP: Towards Scene Graph Knowledge to Enhance Multi-modal
Structured Representations [70.41385310930846]
マルチモーダルな構造表現を強化するためのエンドツーエンドフレームワークであるStructure-CLIPを提案する。
シーングラフを用いてセマンティックなネガティブな例の構築をガイドし、その結果、構造化された表現の学習に重点を置いている。
知識エンハンス(KEE)は、SGKを入力として活用し、構造化表現をさらに強化するために提案される。
論文 参考訳(メタデータ) (2023-05-06T03:57:05Z) - Efficient entity-based reinforcement learning [3.867363075280544]
本稿では,集合表現の最近の進歩とスロットアテンションとグラフニューラルネットワークを組み合わせて構造化データを処理することを提案する。
トレーニング時間とロバスト性を大幅に改善できることを示し、構造化されたドメインと純粋に視覚的なドメインを扱う可能性を示す。
論文 参考訳(メタデータ) (2022-06-06T19:02:39Z) - Cross-modal Representation Learning for Zero-shot Action Recognition [67.57406812235767]
我々は、ゼロショット動作認識(ZSAR)のためのビデオデータとテキストラベルを共同で符号化するクロスモーダルトランスフォーマーベースのフレームワークを提案する。
我々のモデルは概念的に新しいパイプラインを使用し、視覚的表現と視覚的意味的関連をエンドツーエンドで学習する。
実験結果から,本モデルはZSARの芸術的状況に大きく改善され,UCF101,HMDB51,ActivityNetベンチマークデータセット上でトップ1の精度が向上した。
論文 参考訳(メタデータ) (2022-05-03T17:39:27Z) - OG-SGG: Ontology-Guided Scene Graph Generation. A Case Study in Transfer
Learning for Telepresence Robotics [124.08684545010664]
画像からのシーングラフ生成は、ロボット工学のようなアプリケーションに非常に関心を持つタスクである。
オントロジー誘導シーングラフ生成(OG-SGG)と呼ばれるフレームワークの初期近似を提案する。
論文 参考訳(メタデータ) (2022-02-21T13:23:15Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - HOSE-Net: Higher Order Structure Embedded Network for Scene Graph
Generation [20.148175528691905]
本稿では,関係の局所的および大域的構造情報を出力空間に組み込むための新しい構造認識型組込み分類器(SEC)モジュールを提案する。
また,高次構造情報を導入して部分空間の数を減らし,階層的セマンティックアグリゲーション(HSA)モジュールを提案する。
提案したHOSE-Netは、Visual GenomeとVRDの2つの人気のあるベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-08-12T07:58:13Z) - Unsupervised Person Re-identification via Softened Similarity Learning [122.70472387837542]
人物再識別(re-ID)はコンピュータビジョンにおいて重要なトピックである。
本稿では,ラベル付き情報を必要としないre-IDの教師なし設定について検討する。
2つの画像ベースおよびビデオベースデータセットの実験は、最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-04-07T17:16:41Z) - Deep Adaptive Semantic Logic (DASL): Compiling Declarative Knowledge
into Deep Neural Networks [11.622060073764944]
本稿では,深層ニューラルネットワークの自動生成のための新しいフレームワークであるDeep Adaptive Semantic Logic (DASL)を紹介する。
DASLは、データからの学習を改善するために、ユーザが提供する形式的な知識を取り入れている。
我々は,視覚的関係検出タスク上でDASLを評価し,コモンセンス知識の追加によってデータ不足時の性能が10.7%向上することが実証された。
論文 参考訳(メタデータ) (2020-03-16T17:37:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。