論文の概要: SuperAnimal models pretrained for plug-and-play analysis of animal
behavior
- arxiv url: http://arxiv.org/abs/2203.07436v2
- Date: Sun, 19 Mar 2023 14:44:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 04:53:24.469302
- Title: SuperAnimal models pretrained for plug-and-play analysis of animal
behavior
- Title(参考訳): 動物行動のプラグ・アンド・プレイ解析のためのスーパーアニマルモデル
- Authors: Shaokai Ye and Anastasiia Filippova and Jessy Lauer and Maxime Vidal
and Steffen Schneider and Tian Qiu and Alexander Mathis and Mackenzie
Weygandt Mathis
- Abstract要約: 我々は、SuperAnimalと呼ばれる新しい手法により、ディープラーニングモデルの開発とデプロイを可能にする一連の技術革新を提案する。
SuperAnimalは、45種以上の動物ポーズモデルが2種類しかないビデオ推論を可能にする。
映像の教師なし精細化を行うための新しいビデオ適応手法を提案し,行動分類における我々のモデルの有用性について述べる。
- 参考スコア(独自算出の注目度): 55.51137601471492
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantification of behavior is critical in applications ranging from
neuroscience, veterinary medicine and animal conservation efforts. A common key
step for behavioral analysis is first extracting relevant keypoints on animals,
known as pose estimation. However, reliable inference of poses currently
requires domain knowledge and manual labeling effort to build supervised
models. We present a series of technical innovations that enable a new method,
collectively called SuperAnimal, to develop and deploy deep learning models
that require zero additional human labels and model training. SuperAnimal
allows video inference on over 45 species with only two global classes of
animal pose models. If the models need fine-tuning, we show SuperAnimal models
are 10$\times$ more data efficient and outperform prior transfer learning
approaches. Moreover, we provide a new video-adaptation method to perform
unsupervised refinement of videos, and we illustrate the utility of our model
in behavioral classification. Collectively, this presents a data-efficient,
plug-and-play solution for behavioral analysis.
- Abstract(参考訳): 行動の定量化は神経科学、獣医学、動物保護活動など様々な応用において重要である。
行動分析の一般的なステップは、まず、ポーズ推定として知られる動物の重要な点を抽出することである。
しかし、現在、ポーズの信頼できる推論には、教師付きモデルを構築するためにドメイン知識と手作業によるラベル付けが必要である。
我々は,新たな手法であるSuperAnimal(スーパーアニマル)を,人間ラベルやモデルトレーニングをゼロにする深層学習モデルの開発と展開を可能にする一連の技術革新を提案する。
SuperAnimalは、45種以上の動物ポーズモデルが2種類しかないビデオ推論を可能にする。
モデルが微調整が必要な場合、SuperAnimalモデルは10$\times$より多くのデータ効率と事前転送学習アプローチよりも優れた性能を示す。
さらに,ビデオの教師なし精細化を行う新しい映像適応法を提案し,行動分類におけるモデルの有用性について述べる。
これは、行動分析のためのデータ効率の良いプラグアンドプレイソリューションである。
関連論文リスト
- A Model Generalization Study in Localizing Indoor Cows with COw LOcalization (COLO) dataset [0.0]
本研究は,牛肉検出用YOLOv8モデルとYOLOv9モデルの屋内フリーストール納屋環境における一般化能力について検討した。
1)照明条件やカメラアングルの変化によりモデル一般化が等しく影響を受けること,(2)高次モデル複雑性はより優れた一般化性能を保証すること,(3)関連するタスクで訓練されたカスタム初期重み付き微調整は検出タスクに常に利点をもたらすこと,の3つの主要な仮説を考察する。
論文 参考訳(メタデータ) (2024-07-29T18:49:58Z) - PoseBench: Benchmarking the Robustness of Pose Estimation Models under Corruptions [57.871692507044344]
ポース推定は、単眼画像を用いて人や動物の解剖学的キーポイントを正確に同定することを目的としている。
現在のモデルは一般的に、クリーンなデータに基づいてトレーニングされ、テストされる。
実世界の腐敗に対するポーズ推定モデルの堅牢性を評価するためのベンチマークであるPoseBenchを紹介する。
論文 参考訳(メタデータ) (2024-06-20T14:40:17Z) - From Forest to Zoo: Great Ape Behavior Recognition with ChimpBehave [0.0]
ChimpBehaveは動物園で飼育されているチンパンジーの2時間以上のビデオ(約193,000フレーム)を特徴とする新しいデータセットだ。
ChimpBehaveは、アクション認識のためのバウンディングボックスやビヘイビアラベルに細心の注意を払ってアノテートする。
我々は、最先端のCNNベースの行動認識モデルを用いてデータセットをベンチマークする。
論文 参考訳(メタデータ) (2024-05-30T13:11:08Z) - Model Selection with Model Zoo via Graph Learning [45.30615308692713]
本稿では,グラフ学習問題としてモデル選択を再構成する新しいフレームワークであるTransferGraphを紹介する。
我々は,TransferGraphが本質的なモデル-データセット関係を捕捉し,予測性能と実際の微調整結果との相関性を最大32%向上させる効果を,最先端の手法と比較した。
論文 参考訳(メタデータ) (2024-04-05T09:50:00Z) - Hyper-Representations for Pre-Training and Transfer Learning [2.9678808525128813]
我々は、生成的使用のためのハイパー表現を拡張して、事前学習として新しいモデルウェイトをサンプリングする。
以上の結果から, モデル動物園からハイパー表現による新しいモデルへの知識集約の可能性が示唆された。
論文 参考訳(メタデータ) (2022-07-22T09:01:21Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z) - Zoo-Tuning: Adaptive Transfer from a Zoo of Models [82.9120546160422]
Zoo-Tuningは、事前訓練されたモデルのパラメータをターゲットタスクに適応的に転送することを学ぶ。
我々は、強化学習、画像分類、顔のランドマーク検出など、様々なタスクに対するアプローチを評価した。
論文 参考訳(メタデータ) (2021-06-29T14:09:45Z) - Deformation-aware Unpaired Image Translation for Pose Estimation on
Laboratory Animals [56.65062746564091]
我々は,神経回路が行動をどのようにオーケストレーションするかを研究するために,手動による監督を使わずに,神経科学モデル生物のポーズを捉えることを目的としている。
我々の重要な貢献は、未完成の画像翻訳フレームワークにおける外観、形状、ポーズの明示的で独立したモデリングである。
ショウジョウバエ(ハエ)、線虫(線虫)、ダニオ・レリオ(ゼブラフィッシュ)のポーズ推定精度の向上を実証した。
論文 参考訳(メタデータ) (2020-01-23T15:34:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。