論文の概要: Shifted Autoencoders for Point Annotation Restoration in Object Counting
- arxiv url: http://arxiv.org/abs/2312.07190v2
- Date: Thu, 14 Mar 2024 13:40:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-16 01:52:29.055572
- Title: Shifted Autoencoders for Point Annotation Restoration in Object Counting
- Title(参考訳): オブジェクトカウントにおけるポイントアノテーション復元のためのシフトオートエンコーダ
- Authors: Yuda Zou, Xin Xiao, Peilin Zhou, Zhichao Sun, Bo Du, Yongchao Xu,
- Abstract要約: オブジェクトの形状の複雑さとアノテーションの主観性は、アノテーションの不整合につながる可能性がある。
そこで我々は,アノテーションの一貫性を向上する Shifted Autoencoders (SAE) を提案する。
SAEは初期点アノテーションにランダムなシフトを適用し、元の位置に復元するためにUNetを使用している。
- 参考スコア(独自算出の注目度): 31.662156669878986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object counting typically uses 2D point annotations. The complexity of object shapes and the subjectivity of annotators may lead to annotation inconsistency, potentially confusing counting model training. Some sophisticated noise-resistance counting methods have been proposed to alleviate this issue. Differently, we aim to directly refine the initial point annotations before training counting models. For that, we propose the Shifted Autoencoders (SAE), which enhances annotation consistency. Specifically, SAE applies random shifts to initial point annotations and employs a UNet to restore them to their original positions. Similar to MAE reconstruction, the trained SAE captures general position knowledge and ignores specific manual offset noise. This allows to restore the initial point annotations to more general and thus consistent positions. Extensive experiments show that using such refined consistent annotations to train some advanced (including noise-resistance) object counting models steadily/significantly boosts their performances. Remarkably, the proposed SAE helps to set new records on nine datasets. We will make codes and refined point annotations available.
- Abstract(参考訳): オブジェクトカウントは通常、2Dポイントアノテーションを使用します。
オブジェクトの形状の複雑さとアノテータの主観性は、アノテーションの不整合を招き、潜在的に紛らわしいモデルトレーニングに繋がる可能性がある。
この問題を緩和するために, 高性能ノイズ抵抗計数法が提案されている。
異なることに、カウントモデルをトレーニングする前に、初期点アノテーションを直接洗練することを目指している。
そこで我々は,アノテーションの一貫性を向上する Shifted Autoencoders (SAE) を提案する。
具体的には、SAEは初期点アノテーションにランダムなシフトを適用し、元の位置に復元するためにUNetを使用している。
MAE再構成と同様に、訓練されたSAEは一般的な位置の知識を捉え、特定の手動オフセットノイズを無視する。
これにより、初期ポイントアノテーションをより一般的で一貫性のある位置に復元することができる。
広範囲にわたる実験により、改良された一貫したアノテーションを使用して、高度な(ノイズ耐性を含む)オブジェクトカウントモデルを継続的に/顕著に向上させることが示される。
注目すべきは、提案されたSAEが9つのデータセットに新しいレコードを設定するのに役立つことだ。
コードと洗練されたポイントアノテーションを利用可能にします。
関連論文リスト
- Point-VOS: Pointing Up Video Object Segmentation [16.359861197595986]
現在の最先端のビデオオブジェクト(VOS)メソッドは、トレーニングとテストの両方において、オブジェクトごとの密集したマスクアノテーションに依存している。
本稿では,その労力を大幅に削減する疎時間的ポイントワイドアノテーションスキームを備えた新しいPoint-VOSタスクを提案する。
ビデオナラティブグラウンドディング(VNG)タスクで評価することで、視覚と言語を接続するモデルを改善するために、我々のデータが利用できることを示す。
論文 参考訳(メタデータ) (2024-02-08T18:52:23Z) - Regressor-Segmenter Mutual Prompt Learning for Crowd Counting [70.49246560246736]
本稿では,アノテーションの差によるバイアスや不正確性を解決するために,相互学習(mPrompt)を提案する。
実験により、mPromptは平均誤差(MAE)を著しく減少させることが示された。
論文 参考訳(メタデータ) (2023-12-04T07:53:59Z) - Focus for Free in Density-Based Counting [56.961229110268036]
利用可能なポイントアノテーションを再利用して、カウント性能を向上させる2つの方法を紹介します。
1つ目は、ポイントアノテーションを利用して、入力画像と密度画像の両方で隠蔽されたオブジェクトをシミュレートするカウント固有の拡張である。
第2の方法である前景蒸留は点アノテーションから前景マスクを生成し,黒色背景を持つ画像上で補助的ネットワークを訓練する。
論文 参考訳(メタデータ) (2023-06-08T11:54:37Z) - ComplETR: Reducing the cost of annotations for object detection in dense
scenes with vision transformers [73.29057814695459]
ComplETRは、部分的にアノテートされた高密度なシーンデータセットで欠落したアノテーションを明示的に補完するように設計されている。
これにより、シーン内のすべてのオブジェクトインスタンスに注釈を付ける必要がなくなり、アノテーションのコストが削減される。
本稿では, 高速R-CNN, カスケードR-CNN, CenterNet2, Deformable DETRなどの人気検出器の性能向上を示す。
論文 参考訳(メタデータ) (2022-09-13T00:11:16Z) - Point-Teaching: Weakly Semi-Supervised Object Detection with Point
Annotations [81.02347863372364]
本稿では,弱い半教師付きオブジェクト検出フレームワークであるPoint-Teachingを提案する。
具体的には,ポイントアノテート画像の擬似ラベルを生成するためのハンガリーの点マッチング手法を提案する。
そこで本研究では,不整合点の影響を低減するため,単純なyet- effective data augmentation(ポイント誘導コピーペースト)を提案する。
論文 参考訳(メタデータ) (2022-06-01T07:04:38Z) - Pre-trained Language Models as Re-Annotators [3.193067591317475]
事前学習言語モデルから意味センシティブなアノテーション表現を取得する方法について検討する。
アノテーション修正のためのクロスバリデーションに基づく事前学習言語モデルを微調整する。
関係抽出における再アノテーションについて検討し、手動で改訂したデータセットRe-DocREDを作成する。
論文 参考訳(メタデータ) (2022-05-11T09:28:23Z) - P2P-Loc: Point to Point Tiny Person Localization [47.6728595874315]
本稿では,人物位置決め作業のための新しいポイントベースフレームワークを提案する。
粗い点(粗い点)として各人に注釈を付けることは、正確なバウンディングボックスではなく、オブジェクトの範囲内の任意の点である。
提案手法は,アノテーションを最大80$%のコストで保存しながら,オブジェクトのローカライゼーション性能に匹敵する。
論文 参考訳(メタデータ) (2021-12-31T08:24:43Z) - Annotation Curricula to Implicitly Train Non-Expert Annotators [56.67768938052715]
自発的な研究は、しばしば、アノテータがタスク、そのアノテーションスキーム、およびデータドメインに精通することを要求する。
これは最初は圧倒的であり、精神的に課税され、結果として生じるアノテーションにエラーを誘導する。
暗黙的にアノテータを訓練する新しい手法であるアノテーションキュリキュラを提案する。
論文 参考訳(メタデータ) (2021-06-04T09:48:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。