論文の概要: Abstract Images Have Different Levels of Retrievability Per Reverse
Image Search Engine
- arxiv url: http://arxiv.org/abs/2211.02115v1
- Date: Thu, 3 Nov 2022 19:40:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 17:10:22.294884
- Title: Abstract Images Have Different Levels of Retrievability Per Reverse
Image Search Engine
- Title(参考訳): 逆画像検索エンジン毎に異なるレベルの検索性を持つ抽象画像
- Authors: Shawn M. Jones and Diane Oyen
- Abstract要約: 画像の再検索がいかに困難か(検索可能性)、返却された画像の割合が関連しているか(精度)、訪問者が提出した画像を見つける前にレビューしなければならない結果の平均数を測定する。
同じ画像を同じ画像の中に再発見しようとすると、Yandexは最高に機能する。
GoogleとYandexは、それぞれ0.8191点から0.8297点の精度で写真を発見したとき、他より優れていた。
- 参考スコア(独自算出の注目度): 6.370905925442655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Much computer vision research has focused on natural images, but technical
documents typically consist of abstract images, such as charts, drawings,
diagrams, and schematics. How well do general web search engines discover
abstract images? Recent advancements in computer vision and machine learning
have led to the rise of reverse image search engines. Where conventional search
engines accept a text query and return a set of document results, including
images, a reverse image search accepts an image as a query and returns a set of
images as results. This paper evaluates how well common reverse image search
engines discover abstract images. We conducted an experiment leveraging images
from Wikimedia Commons, a website known to be well indexed by Baidu, Bing,
Google, and Yandex. We measure how difficult an image is to find again
(retrievability), what percentage of images returned are relevant (precision),
and the average number of results a visitor must review before finding the
submitted image (mean reciprocal rank). When trying to discover the same image
again among similar images, Yandex performs best. When searching for pages
containing a specific image, Google and Yandex outperform the others when
discovering photographs with precision scores ranging from 0.8191 to 0.8297,
respectively. In both of these cases, Google and Yandex perform better with
natural images than with abstract ones achieving a difference in retrievability
as high as 54\% between images in these categories. These results affect anyone
applying common web search engines to search for technical documents that use
abstract images.
- Abstract(参考訳): 多くのコンピュータビジョン研究は自然画像に焦点を合わせてきたが、技術文書は通常、チャート、図形、図形、図形などの抽象画像で構成されている。
一般の検索エンジンはどの程度抽象的な画像を発見できるか?
コンピュータビジョンと機械学習の最近の進歩は、リバースイメージ検索エンジンの台頭につながっている。
従来の検索エンジンがテキストクエリを受け取り、画像を含む文書結果のセットを返すと、逆画像検索はクエリとして画像を受け取り、結果として画像のセットを返す。
本稿では,一般的な逆画像検索エンジンが抽象画像の発見方法を評価する。
我々は、Baidu、Bing、Google、YandexによってよくインデックスされたウェブサイトであるWikimedia Commonsの画像を活用する実験を行った。
画像検索の難しさ(検索可能性)、送信された画像の比率(精度)、送信された画像(相互のランク)を見つける前に訪問者がレビューしなければならない結果の平均数を測定する。
同じ画像の中から同じ画像を見つけようとすると、yandexがベストを尽くす。
特定の画像を含むページを検索する場合、GoogleとYandexは、それぞれ0.8191から0.8297までの精度スコアの写真を発見した場合、他より優れている。
これらいずれの場合も、GoogleとYandexは、これらのカテゴリのイメージ間での検索可能性の差を最大54倍まで達成する抽象イメージよりも、自然なイメージの方が優れている。
これらの結果は、抽象画像を用いた技術文書の検索に一般的なウェブ検索エンジンを適用する人に影響を与える。
関連論文リスト
- MagicLens: Self-Supervised Image Retrieval with Open-Ended Instructions [64.89284104414865]
オープンエンド命令をサポートする自己教師付き画像検索モデルであるMagicLensを紹介する。
MagicLensは、重要な新しい洞察に基づいて構築されている。同じWebページで自然に起こるイメージペアは、幅広い暗黙の関係を含んでいる。
MagicLensは、さまざまな画像検索タスクの8つのベンチマークで、これまでの最高値に匹敵する結果を得る。
論文 参考訳(メタデータ) (2024-03-28T17:59:20Z) - Invisible Relevance Bias: Text-Image Retrieval Models Prefer AI-Generated Images [67.18010640829682]
我々は,AI生成画像がテキスト画像検索モデルに目に見えない関連性バイアスをもたらすことを示す。
検索モデルのトレーニングデータにAI生成画像を含めると、目に見えない関連性バイアスが増す。
本研究では,目に見えない関連バイアスを軽減するための効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:22:58Z) - Fairness in Image Search: A Study of Occupational Stereotyping in Image
Retrieval and its Debiasing [0.0]
本稿では,キーワードに基づく画像検索に着目し,Web検索におけるバイアスと公平性について検討する。
まず,検索システムに存在するいくつかのバイアスと,それらを軽減することが重要である理由について論じる。
いくつかの職業的キーワードで得られたトップタグ付き画像検索における性別バイアスの程度について検討した。
論文 参考訳(メタデータ) (2023-05-06T00:24:44Z) - Ranking Loss and Sequestering Learning for Reducing Image Search Bias in
Histopathology [0.6595290783361959]
本稿では,画像検索性能を改善するための2つの新しいアイデアを提案する。
まず、ランキング損失関数を用いて特徴抽出を検索のマッチング指向性に向けて誘導する。
第2に,特徴抽出の一般化を促進するために,選択学習の概念を導入する。
論文 参考訳(メタデータ) (2023-04-15T03:38:09Z) - Bridging the Gap between Local Semantic Concepts and Bag of Visual Words
for Natural Scene Image Retrieval [0.0]
典型的なコンテンツベースの画像検索システムは、低レベルの特徴の集合としてデータセット内のクエリ画像と画像を扱う。
検索されたリストの上位画像は、クエリ画像と高い類似性を持つが、ユーザの意味論的解釈の観点からは、クエリ画像と異なる場合がある。
本稿では,視覚的単語モデルと局所的意味概念の分布を用いて,自然シーンの検索を行う方法について検討する。
論文 参考訳(メタデータ) (2022-10-17T09:10:50Z) - Pattern Spotting and Image Retrieval in Historical Documents using Deep
Hashing [60.67014034968582]
本稿では,歴史文書のデジタルコレクションにおける画像検索とパターンスポッティングのためのディープラーニング手法を提案する。
ディープラーニングモデルは、実数値またはバイナリコード表現を提供する2つの異なるバリエーションを考慮して、特徴抽出に使用される。
また,提案手法により検索時間を最大200倍に短縮し,関連する作業と比較してストレージコストを最大6,000倍に削減する。
論文 参考訳(メタデータ) (2022-08-04T01:39:37Z) - Where Does the Performance Improvement Come From? - A Reproducibility
Concern about Image-Text Retrieval [85.03655458677295]
画像テキスト検索は、情報検索分野において、徐々に主要な研究方向になりつつある。
まず、画像テキスト検索タスクに焦点が当てられている理由と関連性について検討する。
本研究では,事前学習と非事前学習による検索モデルの再現の諸側面を解析する。
論文 参考訳(メタデータ) (2022-03-08T05:01:43Z) - Learning Conditional Knowledge Distillation for Degraded-Reference Image
Quality Assessment [157.1292674649519]
劣化参照IQA(DR-IQA)という実用的な解を提案する。
DR-IQAはIRモデルの入力、劣化したイメージを参照として利用する。
私たちの結果は、フル参照設定のパフォーマンスに近いものもあります。
論文 参考訳(メタデータ) (2021-08-18T02:35:08Z) - A Decade Survey of Content Based Image Retrieval using Deep Learning [13.778851745408133]
本稿では,コンテンツベース画像検索における過去10年間のディープラーニングベース開発に関する包括的調査について述べる。
クエリ画像の代表的な特徴とデータセット画像との類似性は、検索のために画像のランク付けに使用される。
ディープラーニングは、手作業で設計した機能工学の、10年前から支配的な代替手段として現れてきた。
論文 参考訳(メタデータ) (2020-11-23T02:12:30Z) - Global Image Sentiment Transfer [90.26415735432576]
提案するフレームワークは,参照画像検索ステップとグローバル感情伝達ステップから構成される。
検索した参照画像は、知覚的損失に基づいてアルゴリズムに対してより内容に関連がある。
提案した感情伝達アルゴリズムは、入力画像のコンテンツ構造を確実に保ちながら、画像の感情を伝達することができる。
論文 参考訳(メタデータ) (2020-06-22T03:22:25Z) - Web page classification with Google Image Search results [0.28675177318965034]
入力のクラスを決定するために,複数のニューラルネットワーク結果を組み合わせた新しい手法を提案する。
この手法をウェブページ分類に用いた最初の研究である。
論文 参考訳(メタデータ) (2020-05-30T09:16:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。