論文の概要: Multi-Modal Reasoning Graph for Scene-Text Based Fine-Grained Image
Classification and Retrieval
- arxiv url: http://arxiv.org/abs/2009.09809v1
- Date: Mon, 21 Sep 2020 12:31:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 05:08:17.690436
- Title: Multi-Modal Reasoning Graph for Scene-Text Based Fine-Grained Image
Classification and Retrieval
- Title(参考訳): シーンテキストに基づく微細画像分類と検索のためのマルチモーダル推論グラフ
- Authors: Andres Mafla, Sounak Dey, Ali Furkan Biten, Lluis Gomez and
Dimosthenis Karatzas
- Abstract要約: 本稿では,視覚的・テキスト的手がかりの形でマルチモーダルコンテンツを活用することで,微細な画像分類と検索の課題に取り組むことに焦点を当てる。
画像中の有意なオブジェクトとテキスト間の共通意味空間を学習することにより、マルチモーダル推論を行い、関係強化された特徴を得るためにグラフ畳み込みネットワークを用いる。
- 参考スコア(独自算出の注目度): 8.317191999275536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scene text instances found in natural images carry explicit semantic
information that can provide important cues to solve a wide array of computer
vision problems. In this paper, we focus on leveraging multi-modal content in
the form of visual and textual cues to tackle the task of fine-grained image
classification and retrieval. First, we obtain the text instances from images
by employing a text reading system. Then, we combine textual features with
salient image regions to exploit the complementary information carried by the
two sources. Specifically, we employ a Graph Convolutional Network to perform
multi-modal reasoning and obtain relationship-enhanced features by learning a
common semantic space between salient objects and text found in an image. By
obtaining an enhanced set of visual and textual features, the proposed model
greatly outperforms the previous state-of-the-art in two different tasks,
fine-grained classification and image retrieval in the Con-Text and Drink
Bottle datasets.
- Abstract(参考訳): 自然画像に見られるシーンテキストインスタンスは明示的な意味情報を持ち、コンピュータビジョンの幅広い問題を解決する重要な手がかりを提供する。
本稿では,画像分類と検索の課題に取り組むために,視覚的およびテキスト的手がかりの形でマルチモーダルコンテンツを活用することに焦点を当てる。
まず,テキスト読み出しシステムを用いて画像からテキストインスタンスを取得する。
そして,テキスト特徴と有能な画像領域を組み合わせることで,2つの情報源が持つ補完情報を活用する。
具体的には、グラフ畳み込みネットワークを用いてマルチモーダル推論を行い、画像中の有能なオブジェクトとテキスト間の共通意味空間を学習することで関係強化された特徴を得る。
視覚的特徴とテクスト的特徴の強化セットを得ることにより,提案モデルは,コンテキストとドリンクボトルのデータセットにおける粒度分類と画像検索の2つのタスクにおいて,従来の最先端技術を大きく上回っている。
関連論文リスト
- Leopard: A Vision Language Model For Text-Rich Multi-Image Tasks [62.758680527838436]
Leopardは、複数のテキストリッチイメージを含む視覚言語タスクを扱うビジョン言語モデルである。
まず、テキストリッチでマルチイメージのシナリオに合わせて、約100万の高品質なマルチモーダル命令チューニングデータをキュレートした。
第2に,視覚列長の割り当てを動的に最適化する適応型高解像度マルチイメージ符号化モジュールを開発した。
論文 参考訳(メタデータ) (2024-10-02T16:55:01Z) - You'll Never Walk Alone: A Sketch and Text Duet for Fine-Grained Image Retrieval [120.49126407479717]
事前学習したCLIPモデルを用いて,スケッチとテキストを効果的に組み合わせた新しい構成性フレームワークを提案する。
我々のシステムは、合成画像検索、ドメイン転送、きめ細かい生成における新しい応用にまで拡張する。
論文 参考訳(メタデータ) (2024-03-12T00:27:18Z) - Text-guided Image Restoration and Semantic Enhancement for Text-to-Image Person Retrieval [11.798006331912056]
テキスト・ツー・イメージ・パーソナリティ検索(TIPR)の目的は、与えられたテキスト記述に従って特定の人物画像を取得することである。
本稿では,人物画像と対応するテキスト間のきめ細かいインタラクションとアライメントを構築するための新しいTIPRフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-18T08:23:46Z) - Coarse-to-Fine Contrastive Learning in Image-Text-Graph Space for
Improved Vision-Language Compositionality [50.48859793121308]
対照的に訓練された視覚言語モデルは、視覚と言語表現学習において顕著な進歩を遂げた。
近年の研究では、対象、属性、関係性に対して構成的推論を行う能力に厳しい制限が強調されている。
論文 参考訳(メタデータ) (2023-05-23T08:28:38Z) - Language Matters: A Weakly Supervised Pre-training Approach for Scene
Text Detection and Spotting [69.77701325270047]
本稿では,シーンテキストを効果的に表現できる弱教師付き事前学習手法を提案する。
本ネットワークは,画像エンコーダと文字認識型テキストエンコーダから構成され,視覚的特徴とテキスト的特徴を抽出する。
実験により、事前訓練されたモデルは、重みを他のテキスト検出やスポッティングネットワークに転送しながら、Fスコアを+2.5%、+4.8%改善することが示された。
論文 参考訳(メタデータ) (2022-03-08T08:10:45Z) - Matching Visual Features to Hierarchical Semantic Topics for Image
Paragraph Captioning [50.08729005865331]
本稿では,階層的トピック誘導画像段落生成フレームワークを開発した。
複数の抽象レベルでの画像とテキストの相関をキャプチャするために、変分推論ネットワークを設計します。
段落生成を導くために、学習した階層的トピックと視覚的特徴を言語モデルに統合する。
論文 参考訳(メタデータ) (2021-05-10T06:55:39Z) - Learning Multimodal Affinities for Textual Editing in Images [18.7418059568887]
文書イメージにおけるテキストエンティティ間のマルチモーダルな親和性を学ぶための汎用的な非監視手法を考案する。
次に、これらの学習親和性を使用して、画像内のテキストエンティティを異なるセマンティックグループに自動的にクラスタ化する。
本手法は,幅広い文書にまたがる高度に多様な画像に対して動作可能であり,様々な編集操作に適用可能であることを示す。
論文 参考訳(メタデータ) (2021-03-18T10:09:57Z) - VICTR: Visual Information Captured Text Representation for Text-to-Image
Multimodal Tasks [5.840117063192334]
テキスト入力からオブジェクトのリッチな視覚的意味情報をキャプチャするマルチモーダルタスクであるVICTRを提案する。
本稿では,シーングラフとそれに対応する幾何学的関係情報をグラフ畳み込みネットワークを用いて学習する。
テキスト表現は、単語レベルと文レベルの埋め込みで集約され、視覚的文脈表現と文表現の両方を生成する。
論文 参考訳(メタデータ) (2020-10-07T05:25:30Z) - Improving Image Captioning with Better Use of Captions [65.39641077768488]
本稿では,画像表現とキャプション生成の両方を強化するために,キャプションで利用可能なセマンティクスをよりよく探求するための新しい画像キャプションアーキテクチャを提案する。
我々のモデルはまず,弱教師付きマルチインスタンス学習を用いて,有益な帰納バイアスをもたらすキャプション誘導型視覚関係グラフを構築した。
生成期間中、このモデルは、単語とオブジェクト/述語タグのシーケンスを共同で予測するために、マルチタスク学習を用いた視覚関係をさらに取り入れる。
論文 参考訳(メタデータ) (2020-06-21T14:10:47Z) - Fine-grained Image Classification and Retrieval by Combining Visual and
Locally Pooled Textual Features [8.317191999275536]
特に、テキストの存在は、コンピュータビジョンタスクの多様性に対処するために使用されるべき強力なガイドコンテンツを提供する。
本稿では,テキスト情報と視覚的手がかりを併用した細粒度分類と画像検索の課題に対処し,両者の本質的な関係を解明する。
論文 参考訳(メタデータ) (2020-01-14T12:06:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。