論文の概要: Zero-Shot Composed Image Retrieval with Textual Inversion
- arxiv url: http://arxiv.org/abs/2303.15247v2
- Date: Sat, 19 Aug 2023 14:04:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 00:24:58.824183
- Title: Zero-Shot Composed Image Retrieval with Textual Inversion
- Title(参考訳): テキスト変換を用いたゼロショット合成画像検索
- Authors: Alberto Baldrati, Lorenzo Agnolucci, Marco Bertini, Alberto Del Bimbo
- Abstract要約: Composed Image Retrieval (CIR) は、参照画像と相対キャプションからなるクエリに基づいてターゲット画像を取得することを目的としている。
ラベル付きトレーニングデータセットを必要とせずにCIRに対処することを目的とした新しいタスクZero-Shot CIR(ZS-CIR)を提案する。
- 参考スコア(独自算出の注目度): 28.513594970580396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Composed Image Retrieval (CIR) aims to retrieve a target image based on a
query composed of a reference image and a relative caption that describes the
difference between the two images. The high effort and cost required for
labeling datasets for CIR hamper the widespread usage of existing methods, as
they rely on supervised learning. In this work, we propose a new task,
Zero-Shot CIR (ZS-CIR), that aims to address CIR without requiring a labeled
training dataset. Our approach, named zero-Shot composEd imAge Retrieval with
textuaL invErsion (SEARLE), maps the visual features of the reference image
into a pseudo-word token in CLIP token embedding space and integrates it with
the relative caption. To support research on ZS-CIR, we introduce an
open-domain benchmarking dataset named Composed Image Retrieval on Common
Objects in context (CIRCO), which is the first dataset for CIR containing
multiple ground truths for each query. The experiments show that SEARLE
exhibits better performance than the baselines on the two main datasets for CIR
tasks, FashionIQ and CIRR, and on the proposed CIRCO. The dataset, the code and
the model are publicly available at https://github.com/miccunifi/SEARLE.
- Abstract(参考訳): Composed Image Retrieval (CIR) は、2つの画像の違いを記述した参照画像と相対キャプションからなるクエリに基づいてターゲット画像を取得することを目的としている。
CIRのためのデータセットのラベル付けに必要な高い労力とコストは、教師付き学習に依存するため、既存のメソッドの広範の使用を妨げる。
本研究では,ラベル付きトレーニングデータセットを必要とせずにCIRに対処することを目的としたZero-Shot CIR(ZS-CIR)を提案する。
提案手法は,0-Shot composEd imAge Retrieval with textuaL invErsion (SEARLE) と命名され,参照画像の視覚的特徴をCLIPトークン埋め込み空間内の擬ワードトークンにマッピングし,相対的なキャプションと統合する。
ZS-CIRの研究を支援するために、コンテクストにおける共通オブジェクトの合成画像検索データセット(CIRCO)を導入する。
実験により、SEARLEは、CIRタスクの2つの主要なデータセットであるFashionIQとCIRRと、提案されたCIRCOのベースラインよりも優れたパフォーマンスを示すことが示された。
データセット、コード、モデルはhttps://github.com/miccunifi/SEARLE.comで公開されている。
関連論文リスト
- Image2Sentence based Asymmetrical Zero-shot Composed Image Retrieval [92.13664084464514]
合成画像検索(CIR)の課題は,検索画像とユーザの意図を記述したテキストに基づいて画像を取得することである。
既存の手法は、CIRタスクにおける高度な大規模視覚言語(VL)モデルにおいて大きな進歩を遂げているが、それらは一般的に、モデルトレーニングのためのラベル付き三重項の欠如とリソース制限された環境への展開の困難という2つの大きな問題に悩まされている。
本稿では、VLモデルを利用して合成学習のためのラベルなし画像のみに依存する画像2Sentenceに基づく非対称ゼロショット合成画像検索(ISA)を提案する。
論文 参考訳(メタデータ) (2024-03-03T07:58:03Z) - Language-only Efficient Training of Zero-shot Composed Image Retrieval [50.35345508026073]
合成画像検索(CIR)タスクは、画像とテキストの合成クエリを処理し、両方の条件で相対的な画像を検索する。
本稿では,学習に言語のみを用いる新しいCIRフレームワークを提案する。
我々のLinCIR(Language-only Training for CIR)は、SMP(Self-Masking projection)と呼ばれる新しいセルフスーパービジョンによって、テキストデータセットでのみ訓練することができる。
論文 参考訳(メタデータ) (2023-12-04T16:22:06Z) - Vision-by-Language for Training-Free Compositional Image Retrieval [78.60509831598745]
合成画像検索(CIR)は、データベース内の関連する対象画像を検索することを目的としている。
大規模視覚言語モデル(VLM)を用いた最近の研究動向
我々は、CIReVL(Vision-by-Language)による学習自由なCIRへの取り組みを提案する。
論文 参考訳(メタデータ) (2023-10-13T17:59:38Z) - Sentence-level Prompts Benefit Composed Image Retrieval [69.78119883060006]
合成画像検索(CIR)は、参照画像と相対キャプションの両方を含むクエリを用いて、特定の画像を検索するタスクである。
本稿では,事前訓練されたV-Lモデル,例えばBLIP-2を用いて文レベルのプロンプトを生成することを提案する。
提案手法は,Fashion-IQおよびCIRRデータセット上の最先端のCIR手法に対して良好に動作する。
論文 参考訳(メタデータ) (2023-10-09T07:31:44Z) - Context-I2W: Mapping Images to Context-dependent Words for Accurate
Zero-Shot Composed Image Retrieval [19.916419258812077]
Composed Image Retrieval (ZS-CIR)は、幅広い視覚コンテンツ操作意図を持つ多様なタスクを含む。
本稿では,記述関連画像情報を擬似語トークンに適応的に変換するコンテキスト依存型マッピングネットワークであるContext-I2Wを提案する。
本モデルは、ドメイン変換、オブジェクト合成、オブジェクト操作、属性操作を含む、4つのZS-CIRタスクに対して強力な一般化能力を示す。
論文 参考訳(メタデータ) (2023-09-28T03:35:25Z) - Pic2Word: Mapping Pictures to Words for Zero-shot Composed Image
Retrieval [84.11127588805138]
Composed Image Retrieval (CIR)は、クエリイメージとテキストを組み合わせて、対象とするターゲットを記述する。
既存の方法は、クエリ画像、テキスト仕様、ターゲット画像からなるラベル付き三重項を用いたCIRモデルの教師あり学習に依存している。
我々は,ラベル付き三重項学習を必要とせずにCIRモデルを構築することを目的として,Zero-Shot Composed Image Retrieval (ZS-CIR)を提案する。
論文 参考訳(メタデータ) (2023-02-06T19:40:04Z) - Semantically Tied Paired Cycle Consistency for Any-Shot Sketch-based
Image Retrieval [55.29233996427243]
ローショットスケッチに基づく画像検索はコンピュータビジョンの新たな課題である。
本稿では,ゼロショットおよび少数ショットのスケッチベース画像検索(SBIR)タスクについて述べる。
これらの課題を解決するために,SEM-PCYC(SEM-PCYC)を提案する。
以上の結果から,Sketchy,TU-Berlin,QuickDrawのデータセットを拡張したバージョンでは,最先端の撮影性能が大幅に向上した。
論文 参考訳(メタデータ) (2020-06-20T22:43:53Z) - Cross-View Image Retrieval -- Ground to Aerial Image Retrieval through
Deep Learning [3.326320568999945]
我々は,クロスビュー画像検索CVIRと呼ばれる,多視点画像を対象とした新しいクロスモーダル検索手法を提案する。
本研究の目的は,ストリートビュー画像からのサンプルを衛星ビュー画像と直接比較する,特徴空間と埋め込み空間を見出すことである。
この比較のために、DeepCVIRという新しい深層学習ソリューションが提案されている。
論文 参考訳(メタデータ) (2020-05-02T06:52:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。