論文の概要: DS@GT AnimalCLEF: Triplet Learning over ViT Manifolds with Nearest Neighbor Classification for Animal Re-identification
- arxiv url: http://arxiv.org/abs/2509.12353v1
- Date: Mon, 15 Sep 2025 18:31:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.716191
- Title: DS@GT AnimalCLEF: Triplet Learning over ViT Manifolds with Nearest Neighbor Classification for Animal Re-identification
- Title(参考訳): DS@GT AnimalCLEF:動物再同定のための最も近縁な分類を有する ViT マニフォールド上のトリプルト学習
- Authors: Anthony Miyaguchi, Chandrasekaran Maruthaiyannan, Charles R. Clark,
- Abstract要約: 本稿では、DS@GTチームのAnimalCLEF 2025の再識別チャレンジについて詳述する。
汎用モデル(DINOv2)とドメイン固有モデル(MegaDescriptor)をバックボーンとして比較する。
一般化多様体はよりきめ細かなタスクに対して再構成することが困難であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper details the DS@GT team's entry for the AnimalCLEF 2025 re-identification challenge. Our key finding is that the effectiveness of post-hoc metric learning is highly contingent on the initial quality and domain-specificity of the backbone embeddings. We compare a general-purpose model (DINOv2) with a domain-specific model (MegaDescriptor) as a backbone. A K-Nearest Neighbor classifier with robust thresholding then identifies known individuals or flags new ones. While a triplet-learning projection head improved the performance of the specialized MegaDescriptor model by 0.13 points, it yielded minimal gains (0.03) for the general-purpose DINOv2 on averaged BAKS and BAUS. We demonstrate that the general-purpose manifold is more difficult to reshape for fine-grained tasks, as evidenced by stagnant validation loss and qualitative visualizations. This work highlights the critical limitations of refining general-purpose features for specialized, limited-data re-ID tasks and underscores the importance of domain-specific pre-training. The implementation for this work is publicly available at github.com/dsgt-arc/animalclef-2025.
- Abstract(参考訳): 本稿では、DS@GTチームのAnimalCLEF 2025の再識別チャレンジについて詳述する。
我々の重要な発見は、ポストホック計量学習の有効性は、バックボーン埋め込みの初期品質とドメイン固有性に大きく左右されることである。
汎用モデル(DINOv2)とドメイン固有モデル(MegaDescriptor)をバックボーンとして比較する。
堅牢な閾値を持つK-Nearest Neighbor分類器は、既知の個人を特定したり、新しいものをフラグする。
トリプルトラーニングプロジェクションヘッドは、特殊MegaDescriptorモデルの性能を0.13ポイント向上させたが、BAKSとBAUSの平均的な汎用DINOv2では、最小利得(0.03)を得た。
定常的な検証損失と定性的な可視化によって証明されるように、汎用多様体はよりきめ細かなタスクに対して再構成することがより困難であることを示す。
この研究は、専門的で限定されたデータ再IDタスクのための汎用機能を精細化することの限界を強調し、ドメイン固有の事前トレーニングの重要性を強調している。
この作業の実装はgithub.com/dsgt-arc/animalclef-2025で公開されている。
関連論文リスト
- Transfer Learning and Mixup for Fine-Grained Few-Shot Fungi Classification [0.0]
本稿では,FungiCLEF 2025コンペティションの取り組みについて述べる。
FungiTastic Few-Shotデータセットを使用した、数ショットのきめ細かい視覚分類に焦点を当てている。
論文 参考訳(メタデータ) (2025-07-11T01:21:21Z) - Fine-Grained Classification for Poisonous Fungi Identification with Transfer Learning [0.0]
FungiCLEF 2024は、真菌種のきめ細かい視覚分類(FGVC)に対処する。
提案手法は,試験後評価において,最高トラック3スコア (0.345), 精度 (78.4%), マクロF1スコア (0.577) を達成した。
論文 参考訳(メタデータ) (2024-07-10T09:24:50Z) - Enhancing Understanding Through Wildlife Re-Identification [0.0]
複数のデータセット上で複数のモデルの性能を解析する。
分類のためにトレーニングされたメトリクスを使用し、次に出力層を取り除き、第2の最終層を埋め込みとして使用することは、学習の戦略として成功しなかったことが分かりました。
DCNNSはいくつかのデータセットでは良好に動作したが、他のデータセットではうまく動作しなかった。
LightGBMは過度に過度に適合しており、測定基準として正確性を使用して全てのペアで訓練および評価を行う場合、定型モデルよりも著しくは優れていなかった。
論文 参考訳(メタデータ) (2024-05-17T22:28:50Z) - Universal Bovine Identification via Depth Data and Deep Metric Learning [1.6605913858547239]
本稿では,個別の牛を正確に識別する深度のみの深度学習システムを提案する。
群れの大きさの増大は、農場における牛と人間の比率を歪め、個人を手動で監視することがより困難になる。
そこで本研究では,市販の3Dカメラの深度データを用いた牛の識別のための深度学習手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T22:03:53Z) - Open-Vocabulary Animal Keypoint Detection with Semantic-feature Matching [74.75284453828017]
Open-Vocabulary Keypoint Detection (OVKD)タスクは、任意の種類のキーポイントを特定するためにテキストプロンプトを使用するように設計されている。
セマンティック・フェールマッチング(KDSM)を用いた開語彙キーポイント検出(Open-Vocabulary Keypoint Detection)という新しいフレームワークを開発した。
このフレームワークは視覚と言語モデルを組み合わせて、言語機能とローカルキーポイント視覚機能との相互作用を作成する。
論文 参考訳(メタデータ) (2023-10-08T07:42:41Z) - Learning Classifiers of Prototypes and Reciprocal Points for Universal
Domain Adaptation [79.62038105814658]
Universal Domainは、ドメインシフトとカテゴリシフトという2つのシフトを処理して、データセット間で知識を転送することを目的としている。
主な課題は、既知のクラス知識の分布をソースからターゲットに適応させながら、未知のターゲットサンプルを正しく識別することである。
既存のほとんどの手法は、まずターゲットが適応した既知の知識を訓練し、次に未知のターゲットサンプルを識別するために単一のしきい値に依存することでこの問題に対処する。
論文 参考訳(メタデータ) (2022-12-16T09:01:57Z) - Prior Knowledge Guided Unsupervised Domain Adaptation [82.9977759320565]
本稿では,対象とするクラス分布に関する事前知識を利用できる知識誘導型非教師付きドメイン適応(KUDA)設定を提案する。
特に,対象領域におけるクラス分布に関する2種類の事前知識について考察する。
このような事前知識を用いて生成した擬似ラベルを精査する修正モジュールを提案する。
論文 参考訳(メタデータ) (2022-07-18T18:41:36Z) - Gait Recognition in the Wild: A Large-scale Benchmark and NAS-based
Baseline [95.88825497452716]
歩行ベンチマークにより、研究コミュニティは高性能歩行認識システムの訓練と評価を行うことができる。
GREWは、野生における歩行認識のための最初の大規模データセットである。
SPOSGaitはNASベースの最初の歩行認識モデルである。
論文 参考訳(メタデータ) (2022-05-05T14:57:39Z) - Generate, Annotate, and Learn: Generative Models Advance Self-Training
and Knowledge Distillation [58.64720318755764]
Semi-Supervised Learning (SSL)は多くのアプリケーションドメインで成功している。
知識蒸留(KD)により、深層ネットワークとアンサンブルの圧縮が可能となり、新しいタスク固有の未ラベルの例について知識を蒸留する際に最良の結果が得られる。
我々は、非条件生成モデルを用いて、ドメイン内の未ラベルデータを合成する「生成、注釈、学習(GAL)」と呼ばれる一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-11T05:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。