論文の概要: LostNet: A smart way for lost and find
- arxiv url: http://arxiv.org/abs/2301.02277v1
- Date: Thu, 5 Jan 2023 19:39:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 23:33:30.699368
- Title: LostNet: A smart way for lost and find
- Title(参考訳): LostNet: 紛失と発見のためのスマートな方法
- Authors: Meihua Zhou, Ivan Fung, Li Yang, Nan Wan, Keke Di, Tingting Wang
- Abstract要約: 本稿では,失った物と回収した物の過去の画像を比較することで,検索の複雑さを著しく低減する手法を提案する。
テスト精度は96.8%で、665.12M GLFOPsと3.5Mのトレーニングパラメータしか使用していない。
- 参考スコア(独自算出の注目度): 7.968736736551808
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Due to the enormous population growth of cities in recent years, objects are
frequently lost and unclaimed on public transportation, in restaurants, or any
other public areas. While services like Find My iPhone can easily identify lost
electronic devices, more valuable objects cannot be tracked in an intelligent
manner, making it impossible for administrators to reclaim a large number of
lost and found items in a timely manner. We present a method that significantly
reduces the complexity of searching by comparing previous images of lost and
recovered things provided by the owner with photos taken when registered lost
and found items are received. In this research, we will primarily design a
photo matching network by combining the fine-tuning method of MobileNetv2 with
CBAM Attention and using the Internet framework to develop an online lost and
found image identification system. Our implementation gets a testing accuracy
of 96.8% using only 665.12M GLFOPs and 3.5M training parameters. It can
recognize practice images and can be run on a regular laptop.
- Abstract(参考訳): 近年の都市の人口増加により、公共交通機関やレストラン、その他の公共の場ではしばしば物件が失われてはいない。
Find My iPhoneのようなサービスは、紛失した電子機器を容易に識別できるが、より価値のあるオブジェクトをインテリジェントな方法で追跡することはできず、管理者が大量の紛失品をタイムリーに回収することは不可能である。
本稿では, 所有者が提供した失失・回収物の過去の画像と, 登録された失・発見品を受信した際の写真とを比較して, 検索の複雑さを著しく低減する手法を提案する。
本研究では,MobileNetv2の微調整手法とCBAMアテンションを併用して画像マッチングネットワークを設計し,インターネットフレームワークを用いてオンラインの紛失・発見画像識別システムを開発する。
試験精度は665.12m glfopsと3.5mトレーニングパラメータで96.8%であった。
練習用画像を認識し、通常のラップトップで実行することができる。
関連論文リスト
- Search and Detect: Training-Free Long Tail Object Detection via Web-Image Retrieval [46.944526377710346]
トレーニング不要なロングテールオブジェクト検出フレームワークであるSearchDetを紹介する。
提案手法は単純かつ無訓練であるが,ODinWでは48.7% mAP,LVISでは59.1% mAPの改善が達成されている。
論文 参考訳(メタデータ) (2024-09-26T05:14:19Z) - SqueezerFaceNet: Reducing a Small Face Recognition CNN Even More Via
Filter Pruning [55.84746218227712]
我々は,100万パラメータ未満の軽量顔認識ネットワークであるSqueezerFaceNetを開発した。
性能を損なうことなく、さらに(最大40%)削減できることを示す。
論文 参考訳(メタデータ) (2023-07-20T08:38:50Z) - LostPaw: Finding Lost Pets using a Contrastive Learning-based
Transformer with Visual Input [0.5156484100374059]
本研究では,ペットのイメージを正確に識別できるコントラストニューラルネットワークモデルを提案する。
このモデルは、犬画像の大規模なデータセットに基づいて訓練され、3倍のクロスバリデーションによって評価された。
我々の研究結果は、失われたペットを見つけるためのツールとして、コントラストニューラルネットワークモデルが約束されていることを示唆している。
論文 参考訳(メタデータ) (2023-04-28T11:23:44Z) - Real-Time Under-Display Cameras Image Restoration and HDR on Mobile
Devices [81.61356052916855]
アンダーディスプレイカメラ(UDC)によって撮影された画像は、その前のスクリーンによって劣化する。
画像復元のためのディープラーニング手法は、キャプチャ画像の劣化を著しく低減することができる。
我々は,視覚的UDC画像復元とHDRのための軽量なモデルを提案し,スマートフォン上での様々な手法の性能と実行状況を比較したベンチマークを提供する。
論文 参考訳(メタデータ) (2022-11-25T11:46:57Z) - Deep Dense Local Feature Matching and Vehicle Removal for Indoor Visual
Localization [0.0]
本研究では,屋内駐車場から収集した画像の中から,問合せの一致を頑健に把握する視覚的位置決めフレームワークを提案する。
我々は、人間の知覚に類似した深い局所的特徴マッチングを用いて、対応を見つける。
提案手法は86.9%の精度を達成し, 代替品よりも優れていた。
論文 参考訳(メタデータ) (2022-05-25T07:32:37Z) - On the Complexity of Object Detection on Real-world Public
Transportation Images for Social Distancing Measurement [0.8347190888362194]
公共空間におけるソーシャルディスタンシングは、新型コロナウイルスのパンデミックの影響軽減に欠かせない要素となっている。
公共交通機関における社会的距離の測定は行われていない。
ロンドン地下鉄とバスネットワークから撮影した実写映像を用いて,最先端の物体検出アルゴリズムのベンチマークを行った。
論文 参考訳(メタデータ) (2022-02-14T11:47:26Z) - A Study on the Efficient Product Search Service for the Damaged Image
Information [12.310316230437005]
本研究の目的は、損傷した画像に対する画像前処理と画像印字アルゴリズムを用いて、画像復元による製品検索を支援することである。
本システムは,情報をカテゴリー別に効率よく表示する利点があり,登録情報の効率的な販売が可能となる。
論文 参考訳(メタデータ) (2021-11-14T13:58:48Z) - Stereo Matching by Self-supervision of Multiscopic Vision [65.38359887232025]
カメラ位置の整列で撮影した複数の画像を利用したステレオマッチングのための新しい自己監視フレームワークを提案する。
ネットワークを最適化するために、クロスフォトメトリックロス、不確実性を認識した相互監督損失、および新しい平滑性損失が導入されます。
我々のモデルは、KITTIデータセット上の以前の教師なし手法よりも、より良い不均一性マップを得る。
論文 参考訳(メタデータ) (2021-04-09T02:58:59Z) - Facial Masks and Soft-Biometrics: Leveraging Face Recognition CNNs for
Age and Gender Prediction on Mobile Ocular Images [53.913598771836924]
スマートフォンで撮影した自撮り眼画像を使って年齢や性別を推定します。
ImageNet Challengeの文脈で提案された2つの既存の軽量CNNを適応させる。
一部のネットワークは顔認識のためにさらにトレーニングされており、非常に大規模なトレーニングデータベースが利用可能です。
論文 参考訳(メタデータ) (2021-03-31T01:48:29Z) - GO-Finder: A Registration-Free Wearable System for Assisting Users in
Finding Lost Objects via Hand-Held Object Discovery [23.33413589457104]
GO-Finderは、登録不要のウェアラブルカメラベースのシステムで、オブジェクトの発見を支援する。
Go-Finderは手持ちのオブジェクトを自動的に検出してグループ化し、オブジェクトのビジュアルタイムラインを形成する。
論文 参考訳(メタデータ) (2021-01-18T20:04:56Z) - Improving Object Detection with Selective Self-supervised Self-training [62.792445237541145]
本研究では,Web画像を利用した人為的対象検出データセットの強化について検討する。
画像と画像の検索によりWebイメージを検索し、他の検索手法に比べて、キュレートされたデータからのドメインシフトが少なくなる。
画像分類のためのラベルのないデータを探索する2つの並列処理をモチベーションとした新しい学習手法を提案する。
論文 参考訳(メタデータ) (2020-07-17T18:05:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。