論文の概要: MOO: A Multi-view Oriented Observations Dataset for Viewpoint Analysis in Cattle Re-Identification
- arxiv url: http://arxiv.org/abs/2603.04314v1
- Date: Wed, 04 Mar 2026 17:36:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.427688
- Title: MOO: A Multi-view Oriented Observations Dataset for Viewpoint Analysis in Cattle Re-Identification
- Title(参考訳): MOO: 乳牛再同定における視点分析のためのマルチビュー指向観測データセット
- Authors: William Grolleau, Achraf Chaouch, Astrid Sabourin, Guillaume Lapouge, Catherine Achard,
- Abstract要約: 私たちはMulti-view Oriented Observation (MOO)データセットを紹介します。これは、1,000ドル(約1万1000円)の牛が128ドル(約1万2000円)で一様にサンプリングされた視点から取得した大規模なAG-ReIDデータセットです。
我々は、標高の影響を定量化し、上述のモデルが目に見えない視点よりもはるかに良く一般化する重要な標高閾値を同定する。
最後に、ゼロショットと教師付きセッティングの両方で実世界のアプリケーションへの転送可能性を検証するとともに、4つの実世界の牛のデータセットのパフォーマンス向上を示し、合成的幾何学的先行がドメインギャップを効果的に橋渡しすることを確認する。
- 参考スコア(独自算出の注目度): 1.5114999589746658
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Animal re-identification (ReID) faces critical challenges due to viewpoint variations, particularly in Aerial-Ground (AG-ReID) settings where models must match individuals across drastic elevation changes. However, existing datasets lack the precise angular annotations required to systematically analyze these geometric variations. To address this, we introduce the Multi-view Oriented Observation (MOO) dataset, a large-scale synthetic AG-ReID dataset of $1,000$ cattle individuals captured from $128$ uniformly sampled viewpoints ($128,000$ annotated images). Using this controlled dataset, we quantify the influence of elevation and identify a critical elevation threshold, above which models generalize significantly better to unseen views. Finally, we validate the transferability to real-world applications in both zero-shot and supervised settings, demonstrating performance gains across four real-world cattle datasets and confirming that synthetic geometric priors effectively bridge the domain gap. Collectively, this dataset and analysis lay the foundation for future model development in cross-view animal ReID. MOO is publicly available at https://github.com/TurtleSmoke/MOO.
- Abstract(参考訳): 動物再識別(ReID)は、特にAerial-Ground(AG-ReID)設定では、高度の変化によって個人と一致しなければならないため、視点の変化による重要な課題に直面している。
しかし、既存のデータセットには、これらの幾何学的バリエーションを体系的に解析するために必要な正確な角度アノテーションが欠けている。
この問題を解決するために、Multi-view Oriented Observation (MOO)データセットを紹介します。これは、1,000ドル(約1万1000円)の牛を均一にサンプリングした視点(約12万8000円)から収集した、1,000ドル(約1万1000円)の大規模合成AG-ReIDデータセットです。
この制御されたデータセットを用いて、標高の影響を定量化し、上述のモデルが見えないビューよりもはるかに良く一般化する重要な標高閾値を同定する。
最後に、ゼロショットと教師付きセッティングの両方で実世界のアプリケーションへの転送可能性を検証するとともに、4つの実世界の牛のデータセットのパフォーマンス向上を示し、合成的幾何学的先行がドメインギャップを効果的に橋渡しすることを確認する。
総合的に、このデータセットと分析は、クロスビュー動物ReIDにおける将来のモデル開発の基礎となった。
MOOはhttps://github.com/TurtleSmoke/MOO.comで公開されている。
関連論文リスト
- From Few-Shot to Zero-Shot: Towards Generalist Graph Anomaly Detection [89.52759572485276]
ARCは、文脈内学習を利用した数発のGAD法であり、推論時にわずかにラベル付き正規サンプルを必要とする。
ARCとARC_zeroは、異常を効果的に検出し、強力な一般化能力を示し、少数ショットおよびゼロショット設定下で効率的に実行する。
論文 参考訳(メタデータ) (2026-02-21T10:59:00Z) - RemoteSAM: Towards Segment Anything for Earth Observation [29.707796048411705]
我々は、地球観測のための頑健でフレキシブルな視覚基盤モデルを開発することを目指している。
多様な視覚的目標を認識し、位置を特定する能力を持つべきである。
いくつかの地球観測知覚ベンチマークで新しいSoTAを確立する基盤モデルであるRemoteSAMを提案する。
論文 参考訳(メタデータ) (2025-05-23T15:27:57Z) - Not All Data are Good Labels: On the Self-supervised Labeling for Time Series Forecasting [37.189362258417624]
本稿では,候補データセットを自然に構築することで,時系列データセットを再ラベルする新たな自己教師型アプローチについて検討する。
単純な再構成ネットワークの最適化において、中間体は自己管理パラダイムの擬似ラベルとして使用される。
実世界の11のデータセットの実験では、SCAMは様々なバックボーンモデルの性能を一貫して改善している。
論文 参考訳(メタデータ) (2025-02-20T16:29:37Z) - UniGaze: Towards Universal Gaze Estimation via Large-scale Pre-Training [12.680014448486242]
自己教師付き事前学習による視線推定に,大規模な画像データセットを活用するUniGazeを提案する。
本実験により,意味的タスクのための自己教師型アプローチは,視線推定に適用した場合に失敗することが明らかとなった。
コストのかかるラベル付きデータへの依存を最小限に抑えながら、UniGazeは複数のデータ領域にわたる一般化を大幅に改善することを示した。
論文 参考訳(メタデータ) (2025-02-04T13:24:23Z) - EarthView: A Large Scale Remote Sensing Dataset for Self-Supervision [72.84868704100595]
本稿では,地球モニタリングタスクにおける深層学習アプリケーションを強化することを目的とした,リモートセンシングデータの自己監督を目的としたデータセットを提案する。
このデータセットは15テラピクセルのグローバルリモートセンシングデータにまたがっており、NEON、Sentinel、Satellogicによる1mの空間解像度データの新たなリリースなど、さまざまなソースの画像を組み合わせている。
このデータセットは、リモートセンシングデータの異なる課題に取り組むために開発されたMasked Autoencoderである。
論文 参考訳(メタデータ) (2025-01-14T13:42:22Z) - Diffusion Models as Data Mining Tools [87.77999285241219]
本稿では、画像合成のために訓練された生成モデルを視覚データマイニングのツールとして利用する方法について述べる。
特定のデータセットから画像を合成するために条件拡散モデルを微調整した後、これらのモデルを用いて典型性尺度を定義することができることを示す。
この尺度は、地理的位置、タイムスタンプ、セマンティックラベル、さらには病気の存在など、異なるデータラベルに対する典型的な視覚的要素がどのように存在するかを評価する。
論文 参考訳(メタデータ) (2024-07-20T17:14:31Z) - SARDet-100K: Towards Open-Source Benchmark and ToolKit for Large-Scale SAR Object Detection [79.23689506129733]
我々は,大規模SARオブジェクト検出のための新しいベンチマークデータセットとオープンソース手法を構築した。
私たちのデータセットであるSARDet-100Kは、10の既存のSAR検出データセットの厳格な調査、収集、標準化の結果です。
私たちの知る限りでは、SARDet-100KはCOCOレベルの大規模マルチクラスSARオブジェクト検出データセットとしては初めてのものです。
論文 参考訳(メタデータ) (2024-03-11T09:20:40Z) - Improving 2D Human Pose Estimation in Rare Camera Views with Synthetic Data [24.63316659365843]
本稿では、ポーズとビューを包括的に制御した合成ヒトを生成するためのSMPLベースの手法であるRePoGenを紹介する。
トップビューデータセットの実験と、さまざまなポーズを持つ実画像の新しいデータセットにより、COCOデータセットにRePoGenデータを追加することは、以前のアプローチよりも優れていることが示されている。
論文 参考訳(メタデータ) (2023-07-13T13:17:50Z) - Unified Visual Relationship Detection with Vision and Language Models [89.77838890788638]
この研究は、複数のデータセットからラベル空間の結合を予測する単一の視覚的関係検出器のトレーニングに焦点を当てている。
視覚と言語モデルを活用した統合視覚関係検出のための新しいボトムアップ手法UniVRDを提案する。
人物体間相互作用検出とシーングラフ生成の双方による実験結果から,本モデルの競合性能が示された。
論文 参考訳(メタデータ) (2023-03-16T00:06:28Z) - SuperAnimal pretrained pose estimation models for behavioral analysis [42.206265576708255]
行動の定量化は神経科学、獣医学、動物保護活動など様々な応用において重要である。
我々は、SuperAnimalと呼ばれる新しい手法で統一基盤モデルを開発するための一連の技術革新を提案する。
論文 参考訳(メタデータ) (2022-03-14T18:46:57Z) - Occlusion-Invariant Rotation-Equivariant Semi-Supervised Depth Based
Cross-View Gait Pose Estimation [40.50555832966361]
閉塞不変な半教師あり学習フレームワークを用いたクロスビュー一般化のための新しい手法を提案する。
本モデルは,1つの視点からの実世界データと,複数の視点からの非競合合成データを用いて訓練した。
他の目に見えないすべてのビューから、現実世界のデータをうまく一般化することができる。
論文 参考訳(メタデータ) (2021-09-03T09:39:05Z) - Comparing Test Sets with Item Response Theory [53.755064720563]
我々は,18の事前学習トランスフォーマーモデルから予測した29のデータセットを個別のテスト例で評価した。
Quoref、HellaSwag、MC-TACOは最先端のモデルを区別するのに最適である。
また、QAMRやSQuAD2.0のようなQAデータセットに使用されるスパン選択タスク形式は、強いモデルと弱いモデルとの差別化に有効である。
論文 参考訳(メタデータ) (2021-06-01T22:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。