論文の概要: Leveraging Unlabeled Data for Sketch-based Understanding
- arxiv url: http://arxiv.org/abs/2204.12522v1
- Date: Tue, 26 Apr 2022 18:13:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 13:29:36.634218
- Title: Leveraging Unlabeled Data for Sketch-based Understanding
- Title(参考訳): スケッチベース理解のためのラベルなしデータ活用
- Authors: Javier Morales, Nils Murrugarra-Llerena and Jose M. Saavedra
- Abstract要約: スケッチベースモデルを改善するためにラベルのないデータを使用することについて検討する。
以上の結果から,スケッチBYOLの優位性は,他の自己監督的アプローチよりも優れていた。
- 参考スコア(独自算出の注目度): 11.95015190261688
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Sketch-based understanding is a critical component of human cognitive
learning and is a primitive communication means between humans. This topic has
recently attracted the interest of the computer vision community as sketching
represents a powerful tool to express static objects and dynamic scenes.
Unfortunately, despite its broad application domains, the current sketch-based
models strongly rely on labels for supervised training, ignoring knowledge from
unlabeled data, thus limiting the underlying generalization and the
applicability. Therefore, we present a study about the use of unlabeled data to
improve a sketch-based model. To this end, we evaluate variations of VAE and
semi-supervised VAE, and present an extension of BYOL to deal with sketches.
Our results show the superiority of sketch-BYOL, which outperforms other
self-supervised approaches increasing the retrieval performance for known and
unknown categories. Furthermore, we show how other tasks can benefit from our
proposal.
- Abstract(参考訳): スケッチに基づく理解は人間の認知学習の重要な要素であり、人間間の原始的なコミュニケーション手段である。
このトピックは最近、静的オブジェクトと動的シーンを表現する強力なツールとして、コンピュータビジョンコミュニティの関心を集めている。
残念ながら、幅広いアプリケーションドメインにもかかわらず、現在のスケッチベースのモデルは教師付きトレーニングのラベルに強く依存しており、ラベルのないデータからの知識を無視し、基礎となる一般化と適用性を制限する。
そこで本研究では,不ラベルデータを用いたスケッチモデルの改良について検討する。
そこで我々は,VAEと半教師付きVAEのバリエーションを評価し,スケッチ処理のためのBYOLの拡張を提案する。
以上の結果から,スケッチBYOLは,未知のカテゴリの検索性能を向上する自己教師型アプローチよりも優れていた。
さらに、他のタスクが私たちの提案の恩恵を受けるかを示す。
関連論文リスト
- Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - SEGA: Structural Entropy Guided Anchor View for Graph Contrastive
Learning [12.783251612977299]
対照的に、ビューの選択は表現が捉えた情報を制御し、モデルの性能に影響を与える。
コントラスト学習のための入力グラフの本質的情報を維持するアンカービューはほとんど研究されていない。
我々は,教師なし,半教師なし,移動学習に基づくグラフ分類に関する様々なベンチマークにおいて,提案するアンカービューを広範囲に検証した。
論文 参考訳(メタデータ) (2023-05-08T06:52:02Z) - Bridging the visual gap in VLN via semantically richer instructions [3.5789352263336847]
現状のモデルでは、限られた、あるいは全く視覚的データを受け取らない場合、深刻な影響を受けないことが示される。
より明示的な視覚情報の導入を促進する新しいデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2022-10-27T15:58:07Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - I Know What You Draw: Learning Grasp Detection Conditioned on a Few
Freehand Sketches [74.63313641583602]
そこで本研究では,スケッチ画像に関連のある潜在的な把握構成を生成する手法を提案する。
私たちのモデルは、現実世界のアプリケーションで簡単に実装できるエンドツーエンドで訓練され、テストされています。
論文 参考訳(メタデータ) (2022-05-09T04:23:36Z) - Graph Few-shot Class-incremental Learning [25.94168397283495]
新しいクラスを段階的に学習する能力は、すべての現実世界の人工知能システムにとって不可欠である。
本稿では,グラフFCL(Graph Few-shot Class-incremental)問題について検討する。
基本クラスから繰り返しタスクをサンプリングすることでグラフ擬似インクリメンタルラーニングパラダイムを提案する。
本稿では,タスクレベルの注意とノードクラスのプロトタイプから計算したタスク依存型正規化器について述べる。
論文 参考訳(メタデータ) (2021-12-23T19:46:07Z) - Towards Unsupervised Sketch-based Image Retrieval [126.77787336692802]
本稿では,教師なし表現学習とスケッチ写真領域アライメントを同時に行う新しいフレームワークを提案する。
このフレームワークは,新しい教師なし設定では優れた性能を達成し,ゼロショット設定では最先端以上の性能を発揮する。
論文 参考訳(メタデータ) (2021-05-18T02:38:22Z) - Self-supervised on Graphs: Contrastive, Generative,or Predictive [25.679620842010422]
SSL(Self-supervised Learning)は、よく設計されたプリテキストタスクを通じて有益な知識を抽出するための新しいパラダイムとして登場しています。
既存のグラフSSLメソッドは、コントラスト、生成、予測の3つのカテゴリに分けられる。
また、一般的なデータセット、評価メトリクス、下流タスク、さまざまなアルゴリズムのオープンソース実装をまとめています。
論文 参考訳(メタデータ) (2021-05-16T03:30:03Z) - Visual Distant Supervision for Scene Graph Generation [66.10579690929623]
シーングラフモデルは通常、大量のラベル付きデータを人間のアノテーションで教師付き学習する必要がある。
本研究では,人間ラベルデータを用いずにシーングラフモデルを訓練できる視覚関係学習の新しいパラダイムである視覚遠方監視を提案する。
包括的な実験結果から、我々の遠隔監視モデルは、弱い監督と半監督のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-03-29T06:35:24Z) - Deep Self-Supervised Representation Learning for Free-Hand Sketch [51.101565480583304]
フリーハンドスケッチにおける自己指導型表現学習の課題に対処する。
自己教師型学習パラダイムの成功の鍵は、スケッチ固有の設計にある。
提案手法は最先端の教師なし表現学習法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-03T16:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。