論文の概要: No Free Lunch in Annotation either: An objective evaluation of foundation models for streamlining annotation in animal tracking
- arxiv url: http://arxiv.org/abs/2502.03907v1
- Date: Thu, 06 Feb 2025 09:30:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:32:37.370449
- Title: No Free Lunch in Annotation either: An objective evaluation of foundation models for streamlining annotation in animal tracking
- Title(参考訳): アノテーションにフリーランチがない場合も:動物追跡におけるアノテーションの合理化のための基礎モデルの客観的評価
- Authors: Emil Mededovic, Valdy Laurentius, Yuli Wu, Marcin Kopaczka, Zhu Chen, Mareike Schulz, René Tolba, Johannes Stegmaier,
- Abstract要約: 動物追跡のためのアノテーションを作成するという面倒な作業に対処する基礎モデルの能力を分析する。
自動アノテーションと手動のアノテートデータを組み合わせた思慮深い組み合わせが重要な戦略であることを示す。
- 参考スコア(独自算出の注目度): 1.4899967724684644
- License:
- Abstract: We analyze the capabilities of foundation models addressing the tedious task of generating annotations for animal tracking. Annotating a large amount of data is vital and can be a make-or-break factor for the robustness of a tracking model. Robustness is particularly crucial in animal tracking, as accurate tracking over long time horizons is essential for capturing the behavior of animals. However, generating additional annotations using foundation models can be counterproductive, as the quality of the annotations is just as important. Poorly annotated data can introduce noise and inaccuracies, ultimately compromising the performance and accuracy of the trained model. Over-reliance on automated annotations without ensuring precision can lead to diminished results, making careful oversight and quality control essential in the annotation process. Ultimately, we demonstrate that a thoughtful combination of automated annotations and manually annotated data is a valuable strategy, yielding an IDF1 score of 80.8 against blind usage of SAM2 video with an IDF1 score of 65.6.
- Abstract(参考訳): 動物追跡のためのアノテーションを作成するという面倒な作業に対処する基礎モデルの能力を分析する。
大量のデータをアノテートすることは不可欠であり、追跡モデルの堅牢性にとって、メイク・アンド・ブレイクの要因になり得る。
長い時間的地平線上での正確な追跡は動物の行動を捉えるのに欠かせないため、動物追跡においてロバスト性は特に重要である。
しかし、ファンデーションモデルを使用して追加のアノテーションを生成することは、アノテーションの品質が同様に重要であるため、非生産的になる可能性がある。
曖昧な注釈付きデータはノイズや不正確さを導入し、最終的にトレーニングされたモデルの性能と正確さを損なう可能性がある。
精度を保証しない自動アノテーションの過度な信頼は、結果の低下につながる可能性があるため、アノテーションプロセスに不可欠な注意深い監視と品質管理を実現する。
最終的に、自動アノテーションと手動注釈データの組み合わせは貴重な戦略であり、IFF1スコアは80.8であり、SAM2ビデオの盲点使用に対してIDF1スコアは65.6である。
関連論文リスト
- Feedback-driven object detection and iterative model improvement [2.3700911865675187]
本稿では,オブジェクト検出モデルの改良を目的としたプラットフォームの開発と評価について述べる。
このプラットフォームでは、イメージのアップロードとアノテートに加えて、微調整されたオブジェクト検出モデルも可能だ。
手動アノテーションと比較して,半自動で最大53%の時間短縮効果を示す。
論文 参考訳(メタデータ) (2024-11-29T16:45:25Z) - Self-Training with Pseudo-Label Scorer for Aspect Sentiment Quad Prediction [54.23208041792073]
Aspect Sentiment Quad Prediction (ASQP) は、与えられたレビューに対して全てのクワッド(アスペクト項、アスペクトカテゴリー、意見項、感情極性)を予測することを目的としている。
ASQPタスクにおける重要な課題はラベル付きデータの不足であり、既存のメソッドのパフォーマンスを制限している。
そこで我々は,擬似ラベルスコアラーを用いた自己学習フレームワークを提案し,レビューと擬似ラベルの一致をスコアラーが評価する。
論文 参考訳(メタデータ) (2024-06-26T05:30:21Z) - Boosting Gesture Recognition with an Automatic Gesture Annotation Framework [10.158684480548242]
そこで本稿では,ジェスチャクラスを自動的にアノテートし,その時間範囲を識別するフレームワークを提案する。
本フレームワークは,(1)コネクショニスト時間分類(CTC)の損失を利用した新しいアノテーションモデル,(2)半教師付き学習パイプラインからなる。
これらの高品質な擬似ラベルは、他の下流ジェスチャ認識モデルの精度を高めるためにも使用できる。
論文 参考訳(メタデータ) (2024-01-20T07:11:03Z) - Generalizable Error Modeling for Human Data Annotation: Evidence From an Industry-Scale Search Data Annotation Program [0.0]
本稿では,検索関連アノテーションタスクにおける潜在的なエラーを検出するために訓練された予測誤差モデルを提案する。
そこで本研究では,中程度のモデル性能(AUC=0.65-0.75)で誤差を予測できることを示す。
本稿では,高い予測誤差確率のタスクを優先することで,修正されたアノテーションエラーの量を大幅に増加させるという,監査の文脈におけるモデルの有用性を実証する。
論文 参考訳(メタデータ) (2023-10-08T21:21:19Z) - cRedAnno+: Annotation Exploitation in Self-Explanatory Lung Nodule
Diagnosis [8.582182186207671]
cRedAnnoは、アノテーションの要求を大幅に減らして、競争性能を達成する。
半教師付き能動学習によるアノテーション活用機構を提案する。
提案手法は10倍のアノテーションで同等あるいはそれ以上高い悪性度予測精度を実現する。
論文 参考訳(メタデータ) (2022-10-28T12:44:31Z) - VisFIS: Visual Feature Importance Supervision with
Right-for-the-Right-Reason Objectives [84.48039784446166]
モデルFI監督は、VQAモデルの精度と、Right-to-the-Right-Reasonメトリクスの性能を有意義に向上させることができることを示す。
我々の最高のパフォーマンス手法であるVisual Feature Importance Supervision (VisFIS)は、ベンチマークVQAデータセットで強いベースラインを上回ります。
説明が妥当で忠実な場合には予測がより正確になる。
論文 参考訳(メタデータ) (2022-06-22T17:02:01Z) - Improving the Adversarial Robustness of NLP Models by Information
Bottleneck [112.44039792098579]
非破壊機能は敵によって容易に操作でき、NLPモデルを騙すことができる。
本研究では,情報ボトルネック理論を用いて,タスク固有のロバストな特徴を捕捉し,非ロバストな特徴を除去する可能性を検討する。
情報ボトルネックに基づく手法を用いてトレーニングしたモデルでは,ロバストな精度で大幅な改善が達成できることを示す。
論文 参考訳(メタデータ) (2022-06-11T12:12:20Z) - WSSOD: A New Pipeline for Weakly- and Semi-Supervised Object Detection [75.80075054706079]
弱機能および半教師付きオブジェクト検出フレームワーク(WSSOD)を提案する。
エージェント検出器は、まず関節データセット上でトレーニングされ、弱注釈画像上で擬似境界ボックスを予測するために使用される。
提案フレームワークはPASCAL-VOC と MSCOCO のベンチマークで顕著な性能を示し,完全教師付き環境で得られたものと同等の性能を達成している。
論文 参考訳(メタデータ) (2021-05-21T11:58:50Z) - Self-Supervision by Prediction for Object Discovery in Videos [62.87145010885044]
本稿では,この予測タスクを自己監督として利用し,画像シーケンス表現のための新しいオブジェクト中心モデルを構築する。
私たちのフレームワークは、手動アノテーションや事前トレーニングされたネットワークを使わずにトレーニングできます。
最初の実験では、提案されたパイプラインがオブジェクト中心のビデオ予測への有望なステップであることを確認した。
論文 参考訳(メタデータ) (2021-03-09T19:14:33Z) - TraDE: Transformers for Density Estimation [101.20137732920718]
TraDEは自己回帰密度推定のための自己アテンションに基づくアーキテクチャである。
本稿では, 生成したサンプルを用いた回帰, 分布外検出, トレーニングデータにおける雑音に対する頑健性などのタスクについて述べる。
論文 参考訳(メタデータ) (2020-04-06T07:32:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。