論文の概要: Weakly Supervised Annotations for Multi-modal Greeting Cards Dataset
- arxiv url: http://arxiv.org/abs/2212.00847v1
- Date: Thu, 1 Dec 2022 20:07:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 15:57:07.743916
- Title: Weakly Supervised Annotations for Multi-modal Greeting Cards Dataset
- Title(参考訳): マルチモーダルグリーティングカードデータセットのための弱い教師付きアノテーション
- Authors: Sidra Hanif, Longin Jan Latecki
- Abstract要約: 我々は,Greeting Cardsデータセットから抽象的な視覚概念を学ぶために,事前訓練された画像とテキスト埋め込みから特徴を集約することを提案する。
提案したデータセットは、事前訓練されたテキスト・ツー・イメージ生成モデルを用いて、挨拶カード画像を生成するのにも有用である。
- 参考スコア(独自算出の注目度): 8.397847537464534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, there is a growing number of pre-trained models trained on a
large corpus of data and yielding good performance on various tasks such as
classifying multimodal datasets. These models have shown good performance on
natural images but are not fully explored for scarce abstract concepts in
images. In this work, we introduce an image/text-based dataset called Greeting
Cards. Dataset (GCD) that has abstract visual concepts. In our work, we propose
to aggregate features from pretrained images and text embeddings to learn
abstract visual concepts from GCD. This allows us to learn the text-modified
image features, which combine complementary and redundant information from the
multi-modal data streams into a single, meaningful feature. Secondly, the
captions for the GCD dataset are computed with the pretrained CLIP-based image
captioning model. Finally, we also demonstrate that the proposed the dataset is
also useful for generating greeting card images using pre-trained text-to-image
generation model.
- Abstract(参考訳): 近年、大規模なデータコーパスでトレーニングされた事前学習モデルが増加し、マルチモーダルデータセットの分類など、さまざまなタスクで優れたパフォーマンスを実現している。
これらのモデルは自然画像に優れた性能を示すが、画像の抽象概念の不足のために完全には探索されていない。
本稿では,グリーティングカードと呼ばれる画像/テキストベースのデータセットを紹介する。
抽象的な視覚概念を持つデータセット(GCD)。
本稿では,GCDから抽象的な視覚概念を学習するために,事前学習した画像とテキスト埋め込みの特徴を集約することを提案する。
これにより、マルチモーダルデータストリームからの相補的および冗長な情報を単一の有意義な機能に組み合わせた、テキスト修正された画像機能を学ぶことができます。
次に、事前訓練されたCLIPベースの画像キャプションモデルを用いて、GCDデータセットのキャプションを算出する。
また,提案データセットは,事前学習したテキスト・画像生成モデルを用いて,挨拶カード画像の生成にも有用であることを示す。
関連論文リスト
- ASPIRE: Language-Guided Data Augmentation for Improving Robustness Against Spurious Correlations [43.323791505213634]
ASPIRE (Language-guided Data Augmentation for SPurious correlation Removal) は、スプリアスな特徴のない画像でトレーニングデータセットを補完するソリューションである。
トレーニングセットにグループラベルや既存の非スパースイメージを必要とせずに、非スパース画像を生成することができる。
先行手法の最悪のグループ分類精度を1%から38%向上させる。
論文 参考訳(メタデータ) (2023-08-19T20:18:15Z) - Image Captions are Natural Prompts for Text-to-Image Models [70.30915140413383]
本研究では,合成データの学習効果とプロンプトによる合成データ分布の関係を解析した。
本稿では,テキストから画像への生成モデルにより,より情報的で多様な学習データを合成する簡易かつ効果的な手法を提案する。
本手法は,合成学習データに基づいて訓練したモデルの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-07-17T14:38:11Z) - Generating Images with Multimodal Language Models [78.6660334861137]
本稿では,凍結したテキストのみの大規模言語モデルを,事前学習した画像エンコーダとデコーダモデルで融合する手法を提案する。
本モデルでは,画像検索,新しい画像生成,マルチモーダル対話など,多モーダルな機能群を示す。
論文 参考訳(メタデータ) (2023-05-26T19:22:03Z) - Text-based Person Search without Parallel Image-Text Data [52.63433741872629]
テキストベースの人物探索(TBPS)は,対象者の画像を与えられた自然言語記述に基づいて大きな画像ギャラリーから検索することを目的としている。
既存の手法は、並列画像テキストペアによるトレーニングモデルによって支配されており、収集には非常にコストがかかる。
本稿では,並列画像テキストデータなしでTBPSを探索する試みについて述べる。
論文 参考訳(メタデータ) (2023-05-22T12:13:08Z) - Variational Distribution Learning for Unsupervised Text-to-Image
Generation [42.3246826401366]
本稿では,訓練中に画像のテキストキャプションが利用できない場合に,ディープニューラルネットワークに基づくテキスト画像生成アルゴリズムを提案する。
画像と対応するテキストの埋め込みを結合空間に適切に整列できる事前訓練されたCLIPモデルを用いる。
画像テキストCLIP埋め込みのペア上での条件付きデータログを最大化することにより、テキスト・画像生成モデルを最適化する。
論文 参考訳(メタデータ) (2023-03-28T16:18:56Z) - Towards Multimodal Vision-Language Models Generating Non-Generic Text [2.102846336724103]
視覚言語モデルは、画像内の視覚的コンテキストを評価し、記述的なテキストを生成することができる。
近年の研究では、画像から抽出したテキストで視覚情報を補うために光学文字認識が用いられている。
本研究では、画像から抽出できるが、現在のモデルでは使用されない付加的な情報から、視覚言語モデルが恩恵を受けることができると論じる。
論文 参考訳(メタデータ) (2022-07-09T01:56:35Z) - On Advances in Text Generation from Images Beyond Captioning: A Case
Study in Self-Rationalization [89.94078728495423]
近年のモダリティ,CLIP画像表現,言語モデルの拡張は,マルチモーダル入力によるタスクのマルチモーダル自己調整を一貫して改善していないことを示す。
画像キャプションを超えて画像やテキストからテキストを生成するために構築可能なバックボーンモデリング手法が提案されている。
論文 参考訳(メタデータ) (2022-05-24T00:52:40Z) - DenseCLIP: Language-Guided Dense Prediction with Context-Aware Prompting [91.56988987393483]
本稿では,CLIPから事前学習した知識を暗黙的かつ明示的に活用することで,高密度予測のための新しい枠組みを提案する。
具体的には,CLIPにおける元の画像テキストマッチング問題を画素テキストマッチング問題に変換し,画素テキストスコアマップを用いて高密度予測モデルの学習を指導する。
本手法は,任意の密集予測システムや種々の事前学習された視覚バックボーンに適用可能な,モデルに依存しない手法である。
論文 参考訳(メタデータ) (2021-12-02T18:59:32Z) - Improving Image Captioning with Better Use of Captions [65.39641077768488]
本稿では,画像表現とキャプション生成の両方を強化するために,キャプションで利用可能なセマンティクスをよりよく探求するための新しい画像キャプションアーキテクチャを提案する。
我々のモデルはまず,弱教師付きマルチインスタンス学習を用いて,有益な帰納バイアスをもたらすキャプション誘導型視覚関係グラフを構築した。
生成期間中、このモデルは、単語とオブジェクト/述語タグのシーケンスを共同で予測するために、マルチタスク学習を用いた視覚関係をさらに取り入れる。
論文 参考訳(メタデータ) (2020-06-21T14:10:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。