論文の概要: Captioning Images with Novel Objects via Online Vocabulary Expansion
- arxiv url: http://arxiv.org/abs/2003.03305v1
- Date: Fri, 6 Mar 2020 16:34:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 01:38:12.745121
- Title: Captioning Images with Novel Objects via Online Vocabulary Expansion
- Title(参考訳): オンライン語彙拡張による新しいオブジェクトによるキャプション画像
- Authors: Mikihiro Tanaka, Tatsuya Harada
- Abstract要約: 新規なオブジェクトを含む画像から記述を生成するための低コストな手法を提案する。
本稿では,少数の画像特徴量から推定したオブジェクトの単語埋め込みを用いて,新たなオブジェクトで画像を説明する手法を提案する。
- 参考スコア(独自算出の注目度): 62.525165808406626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we introduce a low cost method for generating descriptions
from images containing novel objects. Generally, constructing a model, which
can explain images with novel objects, is costly because of the following: (1)
collecting a large amount of data for each category, and (2) retraining the
entire system. If humans see a small number of novel objects, they are able to
estimate their properties by associating their appearance with known objects.
Accordingly, we propose a method that can explain images with novel objects
without retraining using the word embeddings of the objects estimated from only
a small number of image features of the objects. The method can be integrated
with general image-captioning models. The experimental results show the
effectiveness of our approach.
- Abstract(参考訳): 本研究では,新しいオブジェクトを含む画像から記述を生成するための低コストな手法を提案する。
一般的に,新しいオブジェクトで画像を説明するモデルの構築には,(1) カテゴリごとに大量のデータを収集し,(2) システム全体をリトレーニングする,というコストがかかる。
人間が少数の新しい物体を見た場合、その特性を既知の物体と関連付けることで推定することができる。
そこで本稿では,オブジェクトの少ない画像特徴のみから推定されるオブジェクトの単語埋め込みを用いて,新たなオブジェクトで画像を説明する手法を提案する。
この手法は一般的な画像キャプションモデルと統合することができる。
実験の結果,本手法の有効性が示された。
関連論文リスト
- Generalizable Single-view Object Pose Estimation by Two-side Generating and Matching [19.730504197461144]
本稿では,RGB画像のみを用いてオブジェクトのポーズを決定するために,新しい一般化可能なオブジェクトポーズ推定手法を提案する。
本手法は,オブジェクトの参照画像1枚で操作し,3次元オブジェクトモデルやオブジェクトの複数ビューの必要性を解消する。
論文 参考訳(メタデータ) (2024-11-24T14:31:50Z) - Object-Driven One-Shot Fine-tuning of Text-to-Image Diffusion with
Prototypical Embedding [7.893308498886083]
提案手法は,オブジェクト駆動方式で一般化性と忠実性の課題に対処することを目的としている。
原型埋め込みは、拡散モデルを微調整する前に、オブジェクトの外観とそのクラスに基づいている。
我々の手法は、いくつかの既存の作業より優れています。
論文 参考訳(メタデータ) (2024-01-28T17:11:42Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - Automatic dataset generation for specific object detection [6.346581421948067]
本研究では,オブジェクトの詳細な特徴を,無関係な情報を得ることなく保存することができるオブジェクト・イン・シーン・イメージの合成手法を提案する。
その結果,合成画像では,物体の境界が背景とよく一致していることがわかった。
論文 参考訳(メタデータ) (2022-07-16T07:44:33Z) - ShaRF: Shape-conditioned Radiance Fields from a Single View [54.39347002226309]
本稿では,単一の画像のみのオブジェクトの神経シーン表現を推定する手法を提案する。
この手法の核心は,対象物の幾何学的足場の推定である。
合成画像と実画像の両方において,提案手法の有効性を示す実験を行った。
論文 参考訳(メタデータ) (2021-02-17T16:40:28Z) - Continuous Surface Embeddings [76.86259029442624]
我々は、変形可能な対象カテゴリーにおける密接な対応を学習し、表現するタスクに焦点をあてる。
本稿では,高密度対応の新たな学習可能な画像ベース表現を提案する。
提案手法は,人間の身近なポーズ推定のための最先端手法と同等以上の性能を示すことを示す。
論文 参考訳(メタデータ) (2020-11-24T22:52:15Z) - Learning Object Detection from Captions via Textual Scene Attributes [70.90708863394902]
キャプションには、オブジェクトの属性やそれらの関係など、画像に関するよりリッチな情報が含まれている、と我々は主張する。
本稿では,この「テキストシーングラフ」の属性を用いて物体検知器を訓練する手法を提案する。
得られたモデルが、いくつかの挑戦的なオブジェクト検出データセットに対して、最先端の結果を達成することを実証的に実証した。
論文 参考訳(メタデータ) (2020-09-30T10:59:20Z) - Neural Object Learning for 6D Pose Estimation Using a Few Cluttered
Images [30.240630713652035]
近年のオブジェクトの6次元ポーズ推定手法は、テクスチャ化された3次元モデルか、ターゲットポーズの全範囲をカバーする実像のいずれかを仮定している。
本稿では,乱雑な画像からのわずかな観察を組み合わせ,任意のポーズでオブジェクトの合成画像を生成するニューラルオブジェクト学習(NOL)を提案する。
論文 参考訳(メタデータ) (2020-05-07T19:33:06Z) - Object-Centric Image Generation from Layouts [93.10217725729468]
複数のオブジェクトを持つ複雑なシーンを生成するレイアウト・ツー・イメージ生成法を開発した。
本手法は,シーン内のオブジェクト間の空間的関係の表現を学習し,レイアウトの忠実度の向上につながる。
本稿では,Fr'echet Inception Distanceのオブジェクト中心適応であるSceneFIDを紹介する。
論文 参考訳(メタデータ) (2020-03-16T21:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。