論文の概要: Near-perfect photo-ID of the Hula painted frog with zero-shot deep local-feature matching
- arxiv url: http://arxiv.org/abs/2601.08798v1
- Date: Tue, 13 Jan 2026 18:32:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.328824
- Title: Near-perfect photo-ID of the Hula painted frog with zero-shot deep local-feature matching
- Title(参考訳): ゼロショット深部局所顔料マッチングを施したHulaペイントカエルのほぼ完全光ID
- Authors: Maayan Yesharim, R. G. Bina Perl, Uri Roll, Sarig Gafny, Eli Geffen, Yoav Ram,
- Abstract要約: ラトニア・ニキリヴェンター (Latonia nigriventer) によるフラー塗装カエルの写真的再識別のための最先端コンピュータビジョン手法の評価
ゼロショット設定における深部局所特徴マッチングと深部グローバル特徴埋め込みモデルとの比較を行った。
ローカル機能パイプラインは、98%のトップ1クローズドセット識別精度を達成し、すべてのグローバル機能モデルを上回っている。
- 参考スコア(独自算出の注目度): 0.12314765641075438
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Accurate individual identification is essential for monitoring rare amphibians, yet invasive marking is often unsuitable for critically endangered species. We evaluate state-of-the-art computer-vision methods for photographic re-identification of the Hula painted frog (Latonia nigriventer) using 1,233 ventral images from 191 individuals collected during 2013-2020 capture-recapture surveys. We compare deep local-feature matching in a zero-shot setting with deep global-feature embedding models. The local-feature pipeline achieves 98% top-1 closed-set identification accuracy, outperforming all global-feature models; fine-tuning improves the best global-feature model to 60% top-1 (91% top-10) but remains below local matching. To combine scalability with accuracy, we implement a two-stage workflow in which a fine-tuned global-feature model retrieves a short candidate list that is re-ranked by local-feature matching, reducing end-to-end runtime from 6.5-7.8 hours to ~38 minutes while maintaining ~96% top-1 closed-set accuracy on the labeled dataset. Separation of match scores between same- and different-individual pairs supports thresholding for open-set identification, enabling practical handling of novel individuals. We deploy this pipeline as a web application for routine field use, providing rapid, standardized, non-invasive identification to support conservation monitoring and capture-recapture analyses. Overall, in this species, zero-shot deep local-feature matching outperformed global-feature embedding and provides a strong default for photo-identification.
- Abstract(参考訳): 正確な個体識別は稀な両生類を監視するのに不可欠であるが、侵入的マーキングはしばしば絶滅危惧種に適さない。
2013-2020年の捕獲回収調査で収集した191個体の腹腔像1,233枚を用いて,ハナガエル(Latonia nigriventer)の写真再同定のための最先端のコンピュータビジョン手法の評価を行った。
ゼロショット設定における深部局所特徴マッチングと深部グローバル特徴埋め込みモデルとの比較を行った。
ローカル機能パイプラインは、98%のトップ1のクローズドセット識別精度を達成し、すべてのグローバル機能モデルを上回っ、微調整により、最高のグローバル機能モデルを60%のトップ1(91%のトップ10)まで改善するが、依然としてローカルマッチング以下である。
スケーラビリティと精度を両立させるため、微調整されたグローバル機能モデルにより、ローカル機能マッチングによって再ランクされた短い候補リストを検索し、ラベル付きデータセットの96%のクローズドセット精度を維持しながら、エンドツーエンドランタイムを6.5-7.8時間から約38分に短縮する2段階ワークフローを実装した。
同種対と異種対のマッチスコアの分離は、オープンセット識別のためのしきい値設定をサポートし、新規個体の実用的なハンドリングを可能にする。
我々は、このパイプラインを日常的なフィールド利用のためのWebアプリケーションとしてデプロイし、高速で標準化された非侵襲的識別を提供することで、保存監視とキャプチャー・キャプチャー解析をサポートする。
全体として、この種では、ゼロショットの深部局所的特徴マッチングは、グローバルな特徴的埋め込みよりも優れており、写真識別の強力なデフォルトを提供する。
関連論文リスト
- Reevaluating Automated Wildlife Species Detection: A Reproducibility Study on a Custom Image Dataset [0.0]
本研究は、Google Inception-ResNet-v2モデルを用いて、カメラトラップ画像におけるヨーロッパの野生哺乳類の自動検出を行ったCarl et al.の知見を再考する。
オープンリソースと90種にまたがる900の画像からなる異なるデータセットを用いて,実験をスクラッチから再実装した。
最小限の事前処理の後、データセットの違いにもかかわらず、元の作業で報告された71%と密接に一致し、全体的な分類精度は62%に達した。
論文 参考訳(メタデータ) (2025-12-08T08:47:16Z) - Adaptive Feature Selection for No-Reference Image Quality Assessment by Mitigating Semantic Noise Sensitivity [55.399230250413986]
上流タスクから有害なセマンティックノイズを除去するためのQFM-IQM(Quality-Aware Feature Matching IQA Metric)を提案する。
提案手法は,8つの標準IQAデータセット上での最先端NR-IQA法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-12-11T06:50:27Z) - Global Features are All You Need for Image Retrieval and Reranking [2.6198864241281434]
SuperGlobalは、両方のステージにグローバル機能のみを取り入れ、精度を犠牲にすることなく効率を向上する、新しいアプローチである。
我々の実験は、標準ベンチマークの最先端技術と比較して大幅に改善されている。
我々の2段階システムは、現在の単一ステージの状態を16.3%超え、高性能画像検索システムに対するスケーラブルで正確な代替手段を提供する。
論文 参考訳(メタデータ) (2023-08-14T06:13:27Z) - Core Risk Minimization using Salient ImageNet [53.616101711801484]
私たちは、1000のImagenetクラスのコアとスプリアス機能をローカライズする100万人以上のソフトマスクを備えたSalient Imagenetデータセットを紹介します。
このデータセットを用いて、まず、いくつかのImagenet事前訓練されたモデル(総計42件)の素早い特徴に対する依存度を評価する。
次に、コアリスク最小化(CoRM)と呼ばれる新しい学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-03-28T01:53:34Z) - Confidence Adaptive Anytime Pixel-Level Recognition [86.75784498879354]
任意の時間推論は、いつでも停止される可能性のある予測の進行を行うモデルを必要とする。
我々は,任意のピクセルレベルの認識に対して,最初の統一とエンドツーエンドのモデルアプローチを提案する。
論文 参考訳(メタデータ) (2021-04-01T20:01:57Z) - Watching You: Global-guided Reciprocal Learning for Video-based Person
Re-identification [82.6971648465279]
映像に基づくRe-IDのための新しいグローバルガイド相互学習フレームワークを提案する。
我々のアプローチは他の最先端のアプローチよりも優れたパフォーマンスを達成できます。
論文 参考訳(メタデータ) (2021-03-07T12:27:42Z) - Re-rank Coarse Classification with Local Region Enhanced Features for
Fine-Grained Image Recognition [22.83821575990778]
そこで我々は,Top1の精度を向上させるため,TopN分類結果を局所的に拡張した埋め込み機能を用いて再評価した。
より効果的なセマンティクスグローバル機能を学ぶために、我々は、自動構築された階層的カテゴリ構造上のマルチレベル損失をデザインする。
本手法は,cub-200-2011,stanford cars,fgvc aircraftの3つのベンチマークで最新性能を実現する。
論文 参考訳(メタデータ) (2021-02-19T11:30:25Z) - Inter-Image Communication for Weakly Supervised Localization [77.2171924626778]
弱教師付きローカライゼーションは、画像レベルの監督のみを使用して対象対象領域を見つけることを目的としている。
我々は,より正確な物体位置を学習するために,異なる物体間の画素レベルの類似性を活用することを提案する。
ILSVRC検証セット上でトップ1のローカライズ誤差率45.17%を達成する。
論文 参考訳(メタデータ) (2020-08-12T04:14:11Z) - Generalized Focal Loss: Learning Qualified and Distributed Bounding
Boxes for Dense Object Detection [85.53263670166304]
一段検出器は基本的に、物体検出を密度の高い分類と位置化として定式化する。
1段検出器の最近の傾向は、局所化の質を推定するために個別の予測分岐を導入することである。
本稿では, 上記の3つの基本要素, 品質推定, 分類, ローカライゼーションについて述べる。
論文 参考訳(メタデータ) (2020-06-08T07:24:33Z) - Deep Learning based Person Re-identification [2.9631016562930546]
カラーヒストグラムに基づく比較を最初に用いて,ギャラリーセットに最も近いマッチングを求める,効率的な階層的再同定手法を提案する。
シルエット部分に基づく特徴抽出スキームは、各階層に採用され、異なる身体構造の相対的な位置を保存する。
その結果、全体的な精度において、最先端のアプローチよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-05-07T07:30:28Z) - Unifying Deep Local and Global Features for Image Search [9.614694312155798]
グローバルおよびローカルな画像特徴を1つのディープモデルに統一し、効率的な特徴抽出による正確な検索を可能にする。
我々のモデルは、改訂されたオックスフォードとパリのデータセットにおける最先端の画像検索と、Google Landmarksデータセットv2における最先端の単一モデルインスタンスレベルの認識を実現している。
論文 参考訳(メタデータ) (2020-01-14T19:59:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。