論文の概要: LostPaw: Finding Lost Pets using a Contrastive Learning-based
Transformer with Visual Input
- arxiv url: http://arxiv.org/abs/2304.14765v1
- Date: Fri, 28 Apr 2023 11:23:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 14:39:06.947216
- Title: LostPaw: Finding Lost Pets using a Contrastive Learning-based
Transformer with Visual Input
- Title(参考訳): LostPaw:視覚入力を用いたコントラスト学習型トランスを用いたペット発見
- Authors: Andrei Voinea, Robin Kock, Maruf A. Dhali
- Abstract要約: 本研究では,ペットのイメージを正確に識別できるコントラストニューラルネットワークモデルを提案する。
このモデルは、犬画像の大規模なデータセットに基づいて訓練され、3倍のクロスバリデーションによって評価された。
我々の研究結果は、失われたペットを見つけるためのツールとして、コントラストニューラルネットワークモデルが約束されていることを示唆している。
- 参考スコア(独自算出の注目度): 0.5156484100374059
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Losing pets can be highly distressing for pet owners, and finding a lost pet
is often challenging and time-consuming. An artificial intelligence-based
application can significantly improve the speed and accuracy of finding lost
pets. In order to facilitate such an application, this study introduces a
contrastive neural network model capable of accurately distinguishing between
images of pets. The model was trained on a large dataset of dog images and
evaluated through 3-fold cross-validation. Following 350 epochs of training,
the model achieved a test accuracy of 90%. Furthermore, overfitting was
avoided, as the test accuracy closely matched the training accuracy. Our
findings suggest that contrastive neural network models hold promise as a tool
for locating lost pets. This paper provides the foundation for a potential web
application that allows users to upload images of their missing pets, receiving
notifications when matching images are found in the application's image
database. This would enable pet owners to quickly and accurately locate lost
pets and reunite them with their families.
- Abstract(参考訳): ペットをなくすことは、ペットの飼い主にとって非常に苦痛であり、失われたペットを見つけることはしばしば困難で時間を要する。
人工知能ベースのアプリケーションは、失われたペットを見つけるスピードと精度を大幅に向上させることができる。
このような応用を容易にするため,本研究では,ペットの画像を正確に識別できるコントラストニューラルネットワークモデルを提案する。
このモデルは犬の画像の大規模なデータセットで訓練され、3倍のクロスバリデーションによって評価された。
350回の訓練の後、このモデルは90%の精度で試験を行った。
さらに、試験精度が訓練精度と密接に一致するため、オーバーフィッティングは避けられた。
以上の結果から,コントラストニューラルネットワークモデルは,失われたペットを見つけるためのツールとしてpromiseを保っていることが示唆された。
本論文は,行方不明のペットの画像をアップロードし,ユーザの画像データベースに一致する画像が見つかると通知を受け取ることのできるWebアプリケーションの基礎を提供する。
これにより、ペットの飼い主は失ったペットを素早く正確に見つけ、家族と再会できる。
関連論文リスト
- IgCONDA-PET: Implicitly-Guided Counterfactual Diffusion for Detecting Anomalies in PET Images [0.840320502420283]
PET異常セグメンテーションネットワークをトレーニングするためのピクセルレベルのアノテートデータの必要性を最小限に抑えることが重要である。
PET画像中の異常を検出するために,弱教師付きかつ間接ガイド付きCOuNterfactual diffusion modelを提案する。
論文 参考訳(メタデータ) (2024-04-30T23:09:54Z) - Cattle Identification Using Muzzle Images and Deep Learning Techniques [0.0]
本研究は、268頭の牛肉から採取した4923個の銃口画像を用いて牛の識別を探索する。
実験の結果、ResNet50モデルを使用して99.5%の最大精度が達成された。
論文 参考訳(メタデータ) (2023-11-14T13:25:41Z) - Prior-Aware Synthetic Data to the Rescue: Animal Pose Estimation with
Very Limited Real Data [18.06492246414256]
そこで本研究では,対象動物からの実際の画像のみを必要とする四足歩行におけるポーズ推定のためのデータ効率のよい戦略を提案する。
ImageNetのような一般的な画像データセットに事前トレーニングされた重み付きバックボーンネットワークを微調整することで、ターゲット動物のポーズデータに対する高い需要を軽減できることが確認された。
そこで我々はPASynと呼ばれる先行認識型合成動物データ生成パイプラインを導入し,ロバストポーズ推定に不可欠な動物のポーズデータを増やした。
論文 参考訳(メタデータ) (2022-08-30T01:17:50Z) - Portuguese Man-of-War Image Classification with Convolutional Neural
Networks [58.720142291102135]
ポルトガルマン・オブ・ウォー(ポルトガル語: Man-of-war、PMW)は、長い触手を持つゼラチン質の生物である。
本稿では,InstagramのソーシャルメディアからPMW画像を認識するための畳み込みニューラルネットワークの利用について報告する。
論文 参考訳(メタデータ) (2022-07-04T03:06:45Z) - CLAMP: Prompt-based Contrastive Learning for Connecting Language and
Animal Pose [70.59906971581192]
本稿では,言語とAniMal Poseを効果的に接続するための,新しいプロンプトベースのコントラスト学習手法を提案する。
CLAMPは、ネットワークトレーニング中にテキストプロンプトを動物のキーポイントに適応させることでギャップを埋めようとしている。
実験結果から, 教師付き, 少数ショット, ゼロショット設定下での最先端性能が得られた。
論文 参考訳(メタデータ) (2022-06-23T14:51:42Z) - A Competitive Method for Dog Nose-print Re-identification [46.94755073943372]
本稿では,CVPR 2022ペット生体認証における犬の鼻指紋認証(Re-ID)課題について提案する。
複数のモデルが組み合わされ、テストセット上で86.67%のAUCが得られる。
論文 参考訳(メタデータ) (2022-05-31T16:26:46Z) - BARC: Learning to Regress 3D Dog Shape from Images by Exploiting Breed
Information [66.77206206569802]
私たちのゴールは、1枚の画像から犬の3D形状とポーズを復元することです。
近年の研究では、画像から手足のスケールパラメータを追加してSMAL動物モデルを直接回帰する研究が提案されている。
我々の手法はBARC(Breed-Augmented Regression using Classification)と呼ばれ、いくつかの重要な方法で先行作業を越えています。
この研究は、a-prioriの遺伝子類似性に関する情報が、3Dトレーニングデータの欠如を補うのに役立つことを示している。
論文 参考訳(メタデータ) (2022-03-29T13:16:06Z) - Persistent Animal Identification Leveraging Non-Visual Markers [71.14999745312626]
乱雑なホームケージ環境下で各マウスにユニークな識別子を時間をかけて発見し提供することを目的としている。
これは、(i)各マウスの視覚的特徴の区別の欠如、(ii)一定の閉塞を伴うシーンの密閉性のため、非常に難しい問題である。
本手法は, この動物識別問題に対して77%の精度を達成し, 動物が隠れているときの急激な検出を拒否することができる。
論文 参考訳(メタデータ) (2021-12-13T17:11:32Z) - SyDog: A Synthetic Dog Dataset for Improved 2D Pose Estimation [3.411873646414169]
SyDogは、地面に真実のポーズとバウンディングボックス座標を含む犬の合成データセットである。
我々は、SyDogで訓練されたポーズ推定モデルが、実データで純粋に訓練されたモデルよりも優れたパフォーマンスを実現することを実証した。
論文 参考訳(メタデータ) (2021-07-31T14:34:40Z) - Deep Traffic Sign Detection and Recognition Without Target Domain Real
Images [52.079665469286496]
本稿では,ターゲットドメインからの実際の画像を必要としない新しいデータベース生成手法と,(ii)交通標識のテンプレートを提案する。
この方法は、実際のデータでトレーニングを克服することではなく、実際のデータが利用できない場合に互換性のある代替手段になることを目的としている。
大規模なデータセットでは、完全に合成されたデータセットによるトレーニングは、実際のデータセットとトレーニングのパフォーマンスにほぼ一致する。
論文 参考訳(メタデータ) (2020-07-30T21:06:47Z) - Identifying Individual Dogs in Social Media Images [1.14219428942199]
この研究は、ペットと飼い主を対象とするソーシャルネットワークPet2Netとの共同プロジェクトの一環だ。
個々の犬を検知し、認識するために、Inception v3とSSD Inception v2アーキテクチャのトランスファーラーニングとオブジェクト検出のアプローチを組み合わせる。
個々の犬を識別すると94.59%の精度が得られることがわかった。
論文 参考訳(メタデータ) (2020-03-14T21:11:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。