論文の概要: Temporal Image Caption Retrieval Competition -- Description and Results
- arxiv url: http://arxiv.org/abs/2410.06314v1
- Date: Tue, 8 Oct 2024 19:45:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 06:29:16.963824
- Title: Temporal Image Caption Retrieval Competition -- Description and Results
- Title(参考訳): 時間的画像キャプチャ検索コンペティション -- 説明と結果
- Authors: Jakub Pokrywka, Piotr Wierzchoń, Kornel Weryszko, Krzysztof Jassem,
- Abstract要約: 本稿では,テキスト画像検索のマルチモーダル課題に対処し,時間的データを含むモーダル性を拡張する新しいタスクを提案する。
本論文は,274年にわたる歴史あるアメリカの新聞をデジタル化して収集する,日刊アメリカ・チャレニアングアメリカプロジェクトを基にした画像検索コンペティション(TICRC)である。
- 参考スコア(独自算出の注目度): 0.9999629695552195
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multimodal models, which combine visual and textual information, have recently gained significant recognition. This paper addresses the multimodal challenge of Text-Image retrieval and introduces a novel task that extends the modalities to include temporal data. The Temporal Image Caption Retrieval Competition (TICRC) presented in this paper is based on the Chronicling America and Challenging America projects, which offer access to an extensive collection of digitized historic American newspapers spanning 274 years. In addition to the competition results, we provide an analysis of the delivered dataset and the process of its creation.
- Abstract(参考訳): 視覚情報とテキスト情報を組み合わせたマルチモーダルモデルは近年,認知度が高まっている。
本稿では,テキスト画像検索のマルチモーダル課題に対処し,時間的データを含むモーダル性を拡張する新しいタスクを提案する。
本論文は,274年にわたる歴史あるアメリカの新聞をデジタル化して収集する,日刊アメリカ・チャレニアングアメリカプロジェクトを基にした画像検索コンペティション(TICRC)である。
コンペの結果に加えて、提供されたデータセットと作成プロセスの分析結果も提供する。
関連論文リスト
- TRINS: Towards Multimodal Language Models that Can Read [61.17806538631744]
TRINSはText-RichイメージINStructionデータセットである。
39,153の画像、キャプション、102,437の質問が含まれている。
本稿では,画像中のテキスト内容の理解に長けたLanguage-vision Reading Assistant(LaRA)を提案する。
論文 参考訳(メタデータ) (2024-06-10T18:52:37Z) - You'll Never Walk Alone: A Sketch and Text Duet for Fine-Grained Image Retrieval [120.49126407479717]
事前学習したCLIPモデルを用いて,スケッチとテキストを効果的に組み合わせた新しい構成性フレームワークを提案する。
我々のシステムは、合成画像検索、ドメイン転送、きめ細かい生成における新しい応用にまで拡張する。
論文 参考訳(メタデータ) (2024-03-12T00:27:18Z) - Semi-supervised multimodal coreference resolution in image narrations [44.66334603518387]
マルチモーダル・コア参照分解能について検討し,特に記述テキストと画像のペア化について検討した。
これは、微粒な画像テキストアライメント、物語言語に固有のあいまいさ、大きな注釈付きトレーニングセットの有効性など、大きな課題を生じさせる。
画像ナレーションペアを用いたデータ効率のよい半教師付き手法を提案する。
論文 参考訳(メタデータ) (2023-10-20T16:10:14Z) - NICE: CVPR 2023 Challenge on Zero-shot Image Captioning [149.28330263581012]
NICEプロジェクトは、堅牢な画像キャプションモデルを開発するためにコンピュータビジョンコミュニティに挑戦するために設計されている。
レポートには、新たに提案されたNICEデータセット、評価方法、課題結果、トップレベルのエントリの技術的な詳細などが含まれている。
論文 参考訳(メタデータ) (2023-09-05T05:32:19Z) - Out-of-Vocabulary Challenge Report [15.827931962904115]
Out-Of-Vocabulary 2022 (OOV) チャレンジでは、トレーニング時に見えないシーンテキストインスタンスの認識が導入されている。
コンペティションは、326,385のイメージと4,864,405のシーンテキストインスタンスからなる公開シーンテキストデータセットのコレクションをコンパイルする。
ベースラインと異なる参加者からの結果を徹底的に分析する。
論文 参考訳(メタデータ) (2022-09-14T15:25:54Z) - NewsStories: Illustrating articles with visual summaries [49.924916589209374]
我々は,3300万記事,2200万画像,100万ビデオを含む大規模マルチモーダルデータセットを提案する。
現状の画像テキストアライメント手法は、複数の画像を持つ長い物語に対して堅牢ではないことを示す。
本稿では,GoodNewsデータセット上で,ゼロショット画像セット検索において,これらの手法を10%向上させる直感的なベースラインを提案する。
論文 参考訳(メタデータ) (2022-07-26T17:34:11Z) - Deep Image Deblurring: A Survey [165.32391279761006]
低レベルのコンピュータビジョンにおいて、デブロアリングは古典的な問題であり、ぼやけた入力画像からシャープなイメージを復元することを目的としている。
近年のディープラーニングの進歩は、この問題の解決に大きな進歩をもたらした。
論文 参考訳(メタデータ) (2022-01-26T01:31:30Z) - From Show to Tell: A Survey on Image Captioning [48.98681267347662]
視覚と言語を結びつけることは、ジェネレーティブ・インテリジェンスにおいて重要な役割を担っている。
画像キャプションの研究はまだ結論に達していない。
本研究の目的は,画像キャプション手法の包括的概要と分類を提供することである。
論文 参考訳(メタデータ) (2021-07-14T18:00:54Z) - ICFHR 2020 Competition on Image Retrieval for Historical Handwritten
Fragments [11.154300222718879]
このコンペティションは、歴史文書画像の書き手とスタイル分析のための一連のコンペティションに成功している。
ほとんどのチームが畳み込みニューラルネットワークに基づく手法を提出したが、勝利したエントリーは40%未満のmAPを達成した。
論文 参考訳(メタデータ) (2020-10-20T11:12:35Z) - The Newspaper Navigator Dataset: Extracting And Analyzing Visual Content
from 16 Million Historic Newspaper Pages in Chronicling America [10.446473806802578]
写真,イラスト,地図,漫画,編集漫画のバウンディングボックスアノテーションに基づいて学習した視覚的コンテンツ認識モデルを提案する。
この深層学習モデルを用いて7種類の視覚コンテンツを抽出するパイプラインについて述べる。
我々は,日系アメリカのコーパスから1630万ページのパイプラインを運用した結果を報告する。
論文 参考訳(メタデータ) (2020-05-04T15:51:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。