論文の概要: An Automatic Image Content Retrieval Method for better Mobile Device
Display User Experiences
- arxiv url: http://arxiv.org/abs/2108.12068v1
- Date: Thu, 26 Aug 2021 23:44:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-30 20:09:22.137906
- Title: An Automatic Image Content Retrieval Method for better Mobile Device
Display User Experiences
- Title(参考訳): モバイル端末におけるユーザエクスペリエンス向上のための画像コンテンツの自動検索手法
- Authors: Alessandro Bruno
- Abstract要約: モバイル端末向け画像コンテンツ検索と分類のための新しいモバイルアプリケーションを提案する。
このアプリケーションは何千もの写真で実行され、モバイルディスプレイでより良いユーザー視覚体験を実現するための励ましの成果を見せた。
- 参考スコア(独自算出の注目度): 91.3755431537592
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: A growing number of commercially available mobile phones come with integrated
high-resolution digital cameras. That enables a new class of dedicated
applications to image analysis such as mobile visual search, image cropping,
object detection, content-based image retrieval, image classification. In this
paper, a new mobile application for image content retrieval and classification
for mobile device display is proposed to enrich the visual experience of users.
The mobile application can extract a certain number of images based on the
content of an image with visual saliency methods aiming at detecting the most
critical regions in a given image from a perceptual viewpoint. First, the most
critical areas from a perceptual perspective are extracted using the local
maxima of a 2D saliency function. Next, a salient region is cropped using the
bounding box centred on the local maxima of the thresholded Saliency Map of the
image. Then, each image crop feds into an Image Classification system based on
SVM and SIFT descriptors to detect the class of object present in the image.
ImageNet repository was used as the reference for semantic category
classification. Android platform was used to implement the mobile application
on a client-server architecture. A mobile client sends the photo taken by the
camera to the server, which processes the image and returns the results (image
contents such as image crops and related target classes) to the mobile client.
The application was run on thousands of pictures and showed encouraging results
towards a better user visual experience with mobile displays.
- Abstract(参考訳): 多くの商用携帯電話には高解像度デジタルカメラが組み込まれている。
これにより、モバイルビジュアル検索、画像クロッピング、オブジェクト検出、コンテンツベースの画像検索、画像分類など、画像解析に専用の新しいタイプのアプリケーションが可能になる。
本稿では,ユーザの視覚的体験を豊かにするために,モバイルデバイスディスプレイ用の画像コンテンツ検索と分類のための新しいモバイルアプリケーションを提案する。
モバイルアプリケーションは、知覚的視点から、与えられた画像の最も重要な領域を検出することを目的とした視覚的相性法を用いて、画像の内容に基づいて一定数の画像を抽出することができる。
まず,2次元塩分濃度関数の局所的最大値を用いて知覚的視点から最も重要な領域を抽出する。
次に、画像のしきい値サリエンシーマップの局所極大を中心とする境界ボックスを用いて、サリエント領域をトリッピングする。
そして、各画像クロップは、svmおよびsiftディスクリプタに基づいて画像分類システムに供給され、画像に存在するオブジェクトのクラスを検出する。
ImageNetリポジトリはセマンティックカテゴリ分類のリファレンスとして使用された。
Androidプラットフォームは、クライアントサーバアーキテクチャ上でモバイルアプリケーションを実装するために使用された。
モバイルクライアントは、カメラが撮影した写真をサーバに送信し、画像を処理し、その結果(画像作物や関連するターゲットクラスなどの画像内容)をモバイルクライアントに返す。
このアプリケーションは何千もの画像上で動作し、モバイルディスプレイでのユーザによる視覚的エクスペリエンス向上に向けての成果を示した。
関連論文リスト
- Revisit Anything: Visual Place Recognition via Image Segment Retrieval [8.544326445217369]
既存の視覚的場所認識パイプラインは、"全体"イメージをエンコードし、マッチを検索する。
画像全体の代わりに「画像セグメント」をエンコードして検索することで、この問題に対処する。
これらの部分的表現を検索すると、通常の画像ベース検索よりも認識リコールが大幅に高くなることを示す。
論文 参考訳(メタデータ) (2024-09-26T16:49:58Z) - Improving Image Recognition by Retrieving from Web-Scale Image-Text Data [68.63453336523318]
本稿では,メモリから抽出した各サンプルの重要性を学習するアテンションベースのメモリモジュールを提案する。
既存の手法と比較して,提案手法は無関係な検索例の影響を排除し,入力クエリに有益であるものを保持する。
我々は、ImageNet-LT、Places-LT、Webvisionのデータセットで最先端の精度を実現していることを示す。
論文 参考訳(メタデータ) (2023-04-11T12:12:05Z) - High-Quality Entity Segmentation [110.55724145851725]
CropFormerは高解像度画像におけるインスタンスレベルのセグメンテーションの難易度に対処するために設計されている。
よりきめ細かい画像とフルイメージを提供する高解像度の画像作物を融合することで、マスク予測を改善する。
CropFormerでは、難易度の高いエンティティセグメンテーションタスクで1.9ドルという大きなAP利益を達成しています。
論文 参考訳(メタデータ) (2022-11-10T18:58:22Z) - Fast and Efficient Scene Categorization for Autonomous Driving using
VAEs [2.694218293356451]
シーン分類は、高度なコンピュータビジョンタスクの事前知識を提供する有用な前駆的タスクである。
画像から粗い特徴を捉えるグローバルな記述子を生成し、分類ヘッドを用いて記述子を3つのシーン(農村、都市、郊外)にマップする。
提案するグローバルディスクリプタは非常にコンパクトで、埋め込み長は128であり、計算がかなり高速で、季節や不純物の変化に対して堅牢である。
論文 参考訳(メタデータ) (2022-10-26T18:50:15Z) - Facing the Void: Overcoming Missing Data in Multi-View Imagery [0.783788180051711]
本稿では,この問題に頑健な多視点画像分類のための新しい手法を提案する。
提案手法は,最先端の深層学習とメートル法学習に基づいて,他のアプリケーションやドメインに容易に適応し,活用することができる。
その結果,提案アルゴリズムは,最先端手法と比較して,多視点画像分類精度の向上を図っている。
論文 参考訳(メタデータ) (2022-05-21T13:21:27Z) - Use Image Clustering to Facilitate Technology Assisted Review [0.5249805590164902]
電子発見における技術支援レビュー(TAR)は、マルチメディアコンテンツをスコープに組み込む必要性が高まっているのを目撃している。
我々は過去数年間,画像分類,画像クラスタリング,オブジェクト検出など,TARのための革新的な画像解析アプリケーションを開発してきた。
論文 参考訳(メタデータ) (2021-12-16T04:02:51Z) - Multimodal Icon Annotation For Mobile Applications [11.342641993269693]
本稿では、画素とビュー階層の利点を組み合わせた、新しいディープラーニングに基づくマルチモーダルアプローチを提案する。
リコで最もよく使われている29個のアイコンを手動でアノテートすることで、提供されたユーティリティを示すために、高品質なUIデータセットを作成します。
論文 参考訳(メタデータ) (2021-07-09T13:57:37Z) - A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection [56.82077636126353]
シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
論文 参考訳(メタデータ) (2021-02-17T17:27:21Z) - Retrieval Guided Unsupervised Multi-domain Image-to-Image Translation [59.73535607392732]
画像から画像への変換は、ある視覚領域から別の領域へ画像を変換するマッピングを学ぶことを目的としている。
本稿では,画像から画像への変換作業を支援するための画像検索システムを提案する。
論文 参考訳(メタデータ) (2020-08-11T20:11:53Z) - Geometrically Mappable Image Features [85.81073893916414]
地図内のエージェントの視覚に基づくローカライゼーションは、ロボット工学とコンピュータビジョンにおいて重要な問題である。
本稿では,画像検索を対象とした画像特徴学習手法を提案する。
論文 参考訳(メタデータ) (2020-03-21T15:36:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。