論文の概要: Learning from the Tangram to Solve Mini Visual Tasks
- arxiv url: http://arxiv.org/abs/2112.06113v1
- Date: Sun, 12 Dec 2021 02:02:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 08:45:52.027735
- Title: Learning from the Tangram to Solve Mini Visual Tasks
- Title(参考訳): タングラムから学ぶミニビジュアルタスクの解法
- Authors: Yizhou Zhao and Liang Qiu and Pan Lu and Feng Shi and Tian Han and
Song-Chun Zhu
- Abstract要約: この作品は7つの分離された形状から抽象的なパターンを複製する必要があるゲームであるTangramにインスパイアされている。
我々は、Tangramデータセットを示し、Tangram上の事前学習されたニューラルネットワークが、低解像度のビジョンに基づいて、いくつかの小さな視覚的タスクを解くのに役立つことを示す。
- 参考スコア(独自算出の注目度): 74.75187973962069
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current pre-training methods in computer vision focus on natural images in
the daily-life context. However, abstract diagrams such as icons and symbols
are common and important in the real world. This work is inspired by Tangram, a
game that requires replicating an abstract pattern from seven dissected shapes.
By recording human experience in solving tangram puzzles, we present the
Tangram dataset and show that a pre-trained neural model on the Tangram helps
solve some mini visual tasks based on low-resolution vision. Extensive
experiments demonstrate that our proposed method generates intelligent
solutions for aesthetic tasks such as folding clothes and evaluating room
layouts. The pre-trained feature extractor can facilitate the convergence of
few-shot learning tasks on human handwriting and improve the accuracy in
identifying icons by their contours. The Tangram dataset is available at
https://github.com/yizhouzhao/Tangram.
- Abstract(参考訳): コンピュータビジョンにおける現在の事前学習手法は、日常生活における自然画像に焦点を当てている。
しかし、アイコンやシンボルのような抽象図は現実世界で一般的で重要なものである。
この作品は7つの分離された形状から抽象的なパターンを複製する必要があるゲームであるTangramにインスパイアされている。
タングラムパズルの解法における人間の経験を記録することで、タングラムデータセットを提示し、タングラム上の事前学習されたニューラルモデルが、低解像度の視覚に基づく小さな視覚課題の解法に役立つことを示す。
提案手法が衣服の折り畳みや室内レイアウト評価などの審美的課題に対してインテリジェントな解を生成することを示す。
予め訓練された特徴抽出器は、人間の手書きによる数発の学習タスクの収束を容易にし、輪郭によるアイコンの識別精度を向上させることができる。
tangramデータセットはhttps://github.com/yizhouzhao/tangramで入手できる。
関連論文リスト
- Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Ponder: Point Cloud Pre-training via Neural Rendering [93.34522605321514]
本稿では,識別可能なニューラルエンコーダによる点雲表現の自己教師型学習手法を提案する。
学習したポイントクラウドは、3D検出やセグメンテーションといったハイレベルなレンダリングタスクだけでなく、3D再構成や画像レンダリングといった低レベルなタスクを含む、さまざまなダウンストリームタスクに簡単に統合できる。
論文 参考訳(メタデータ) (2022-12-31T08:58:39Z) - Self-Supervised Feature Learning for Long-Term Metric Visual
Localization [16.987148593917905]
本稿では,メトリクスの視覚的ローカライゼーションのための新しい自己教師型特徴学習フレームワークを提案する。
提案手法は, 画像照合アルゴリズムを用いて, 基底構造ラベルを使わずに画像対応を生成する。
次に、画像ペアをサンプリングして、深層ニューラルネットワークをトレーニングし、関連する記述子とスコアのスパースな特徴を学習する。
論文 参考訳(メタデータ) (2022-11-30T21:15:05Z) - Let's Enhance: A Deep Learning Approach to Extreme Deblurring of Text
Images [3.441021278275805]
本研究は,画像劣化の逆問題に対する,ディープラーニングに基づく新しいパイプラインを提案する。
我々の結果は、最新の最先端のデブロアリングアルゴリズムの限界を探求することを目的とした、最近のヘルシンキのデブロアリングチャレンジ2021への私たちの勝利を基盤にしています。
論文 参考訳(メタデータ) (2022-11-18T09:06:56Z) - Learning Co-segmentation by Segment Swapping for Retrieval and Discovery [67.6609943904996]
この研究の目的は、一対のイメージから視覚的に類似したパターンを効率的に識別することである。
画像中のオブジェクトセグメントを選択し、それを別の画像にコピーペーストすることで、合成トレーニングペアを生成する。
提案手法は,Brueghelデータセット上でのアートワークの詳細検索に対して,明確な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-29T16:51:16Z) - Learning to Generate Scene Graph from Natural Language Supervision [52.18175340725455]
シーングラフと呼ばれる画像内の局所化オブジェクトとその関係をグラフィカルに表現するために,画像と文のペアから学習する最初の方法の1つを提案する。
既製のオブジェクト検出器を利用してオブジェクトのインスタンスを識別し、ローカライズし、検出された領域のラベルとキャプションから解析された概念をマッチングし、シーングラフを学習するための"擬似ラベル"を作成する。
論文 参考訳(メタデータ) (2021-09-06T03:38:52Z) - Connecting What to Say With Where to Look by Modeling Human Attention
Traces [30.8226861256742]
画像,テキスト,人間の注意跡を共同でモデル化する統合フレームワークを提案する。
本研究では,(1)画像とキャプション(視覚的接地)に与えられたトレースを予測し,(2)画像のみに与えられるキャプションとトレースを予測する2つの新しいタスクを提案する。
論文 参考訳(メタデータ) (2021-05-12T20:53:30Z) - Data Augmentation for Object Detection via Differentiable Neural
Rendering [71.00447761415388]
注釈付きデータが乏しい場合、堅牢なオブジェクト検出器を訓練することは困難です。
この問題に対処する既存のアプローチには、ラベル付きデータからラベル付きデータを補間する半教師付き学習が含まれる。
オブジェクト検出のためのオフラインデータ拡張手法を導入し、新しいビューでトレーニングデータを意味的に補間する。
論文 参考訳(メタデータ) (2021-03-04T06:31:06Z) - Self Supervised Learning for Object Localisation in 3D Tomographic
Images [0.0]
本稿では,ボリュームデータの特質を考慮した2つのプレテキストトレーニングタスクについて述べる。
トレーニングされたネットワークをオブジェクトローカライゼーションの下流タスクに、手動のマークアップをゼロで転送する方法を2つ提案する。
論文 参考訳(メタデータ) (2020-11-06T13:34:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。