論文の概要: PawPrint: Whose Footprints Are These? Identifying Animal Individuals by Their Footprints
- arxiv url: http://arxiv.org/abs/2505.17445v1
- Date: Fri, 23 May 2025 04:02:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.802594
- Title: PawPrint: Whose Footprints Are These? Identifying Animal Individuals by Their Footprints
- Title(参考訳): PawPrint:誰の足跡か? 足跡で動物を識別する
- Authors: Inpyo Song, Hyemin Hwang, Jangwon Lee,
- Abstract要約: PawPrintとPawPrint+は、犬と猫の個々のレベルのフットプリント識別に焦点を当てた、初めて公開されたデータセットである。
基板の複雑さやデータの可用性に応じて,様々な利点と欠点を観察する。
このアプローチは、従来のIDタグに代わる非侵襲的な代替手段を提供するため、倫理的ペット管理や野生生物保護活動における有望な応用を期待する。
- 参考スコア(独自算出の注目度): 2.651771159687148
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the United States, as of 2023, pet ownership has reached 66% of households and continues to rise annually. This trend underscores the critical need for effective pet identification and monitoring methods, particularly as nearly 10 million cats and dogs are reported stolen or lost each year. However, traditional methods for finding lost animals like GPS tags or ID photos have limitations-they can be removed, face signal issues, and depend on someone finding and reporting the pet. To address these limitations, we introduce PawPrint and PawPrint+, the first publicly available datasets focused on individual-level footprint identification for dogs and cats. Through comprehensive benchmarking of both modern deep neural networks (e.g., CNN, Transformers) and classical local features, we observe varying advantages and drawbacks depending on substrate complexity and data availability. These insights suggest future directions for combining learned global representations with local descriptors to enhance reliability across diverse, real-world conditions. As this approach provides a non-invasive alternative to traditional ID tags, we anticipate promising applications in ethical pet management and wildlife conservation efforts.
- Abstract(参考訳): アメリカ合衆国では2023年現在、ペットの所有権は66%に達し、毎年上昇を続けている。
この傾向は、特に毎年1000万匹近い猫や犬が盗まれ、失われたと報告されているため、ペットの効果的な識別とモニタリングの方法に対する重要な必要性を浮き彫りにしている。
しかし、GPSタグやID写真などの失われた動物を見つける従来の方法には制限がある。
これらの制限に対処するために、PawPrintとPawPrint+を紹介します。
最新のディープニューラルネットワーク(例えば、CNN、Transformers)と古典的なローカル特徴の総合的なベンチマークを通じて、基板の複雑さとデータ可用性に応じて、様々な利点と欠点を観察する。
これらの知見は、学習したグローバル表現とローカルな記述子を組み合わせることによって、多様な実世界の状況における信頼性を高めるための今後の方向性を示唆している。
このアプローチは、従来のIDタグに代わる非侵襲的な代替手段を提供するため、倫理的ペット管理や野生生物保護活動における有望な応用を期待する。
関連論文リスト
- PetFace: A Large-Scale Dataset and Benchmark for Animal Identification [2.3020018305241337]
動物顔識別のための包括的リソースであるPetFaceデータセットを紹介する。
PetFaceには、13の動物科の257,484個体と、実験動物とペット動物の両方を含む319種の品種が含まれている。
我々は、見知らぬ個人に対する再識別や、見つからない個人に対する検証を含むベンチマークを提供する。
論文 参考訳(メタデータ) (2024-07-18T14:28:31Z) - OpenAnimalTracks: A Dataset for Animal Track Recognition [2.3020018305241337]
動物足跡の自動分類と検出を容易にするために設計された,最初の公開ラベル付きデータセットであるOpenAnimalTracksデータセットを紹介する。
代表分類器と検出モデルを用いた自動フットプリント識別の可能性を示す。
われわれのデータセットは、動物の自動追跡技術の道を切り開き、生物多様性の保護と管理の能力を高めることを願っている。
論文 参考訳(メタデータ) (2024-06-14T00:37:17Z) - LostPaw: Finding Lost Pets using a Contrastive Learning-based Transformer with Visual Input [0.24578723416255752]
本研究では,ペットのイメージを正確に識別できるコントラストニューラルネットワークモデルを提案する。
このモデルは、犬画像の大規模なデータセットに基づいて訓練され、3倍のクロスバリデーションによって評価された。
我々の研究結果は、失われたペットを見つけるためのツールとして、コントラストニューラルネットワークモデルが約束されていることを示唆している。
論文 参考訳(メタデータ) (2023-04-28T11:23:44Z) - A Competitive Method for Dog Nose-print Re-identification [46.94755073943372]
本稿では,CVPR 2022ペット生体認証における犬の鼻指紋認証(Re-ID)課題について提案する。
複数のモデルが組み合わされ、テストセット上で86.67%のAUCが得られる。
論文 参考訳(メタデータ) (2022-05-31T16:26:46Z) - Persistent Animal Identification Leveraging Non-Visual Markers [71.14999745312626]
乱雑なホームケージ環境下で各マウスにユニークな識別子を時間をかけて発見し提供することを目的としている。
これは、(i)各マウスの視覚的特徴の区別の欠如、(ii)一定の閉塞を伴うシーンの密閉性のため、非常に難しい問題である。
本手法は, この動物識別問題に対して77%の精度を達成し, 動物が隠れているときの急激な検出を拒否することができる。
論文 参考訳(メタデータ) (2021-12-13T17:11:32Z) - Dog Identification using Soft Biometrics and Neural Networks [1.2922946578413577]
ペットの身元を決定するため,ペットの写真にディープニューラルネットワークなどの高度な機械学習モデルを適用した。
我々は,ペットの顔写真などの「硬い」バイオメトリックスと融合する際に,品種,身長,性別などの異なるタイプの「軟い」バイオメトリックスを使用することの可能性を探る。
提案したネットワークは,2種の犬種間の相違により,90.80%と91.29%の精度を達成できる。
論文 参考訳(メタデータ) (2020-07-22T10:22:46Z) - Transferring Dense Pose to Proximal Animal Classes [83.84439508978126]
より一般的な対象検出器やセグメンタなどと同様に、密集したポーズ認識に存在する知識を、他のクラスにおける密集したポーズ認識の問題に移すことが可能であることを示す。
我々は、人間と幾何学的に整合した新しい動物のためのDensePoseモデルを確立することでこれを行う。
また、クラスチンパンジーにDensePoseの方法でラベル付けされた2つのベンチマークデータセットを導入し、アプローチを評価するためにそれらを使用します。
論文 参考訳(メタデータ) (2020-02-28T21:43:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。