論文の概要: Head-tail Loss: A simple function for Oriented Object Detection and
Anchor-free models
- arxiv url: http://arxiv.org/abs/2304.04503v1
- Date: Mon, 10 Apr 2023 10:46:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 15:29:51.439940
- Title: Head-tail Loss: A simple function for Oriented Object Detection and
Anchor-free models
- Title(参考訳): ヘッドテール損失: オブジェクト指向物体検出とアンカーフリーモデルのための簡易関数
- Authors: Pau Gall\'es, Xi Chen
- Abstract要約: 本稿では,ヘッドテールロス (head-tail-loss) という,配向境界ボックスの予測のための新たな損失関数を提案する。
損失関数はDOTAとHRSC2016データセットで評価されている。
- 参考スコア(独自算出の注目度): 5.122487534787007
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a new loss function for the prediction of oriented
bounding boxes, named head-tail-loss. The loss function consists in minimizing
the distance between the prediction and the annotation of two key points that
are representing the annotation of the object. The first point is the center
point and the second is the head of the object. However, for the second point,
the minimum distance between the prediction and either the head or tail of the
groundtruth is used. On this way, either prediction is valid (with the head
pointing to the tail or the tail pointing to the head). At the end the
importance is to detect the direction of the object but not its heading. The
new loss function has been evaluated on the DOTA and HRSC2016 datasets and has
shown potential for elongated objects such as ships and also for other types of
objects with different shapes.
- Abstract(参考訳): 本稿では,向き付けられた境界ボックスの予測のための新しい損失関数であるhead-tail-lossを提案する。
損失関数は、オブジェクトのアノテーションを表す2つのキーポイントの予測とアノテーションの間の距離を最小化する。
第1のポイントはセンターポイントで、第2のポイントはオブジェクトのヘッドです。
しかし、第2の点では、予測と地底の頭部または尾部との間の最小距離が用いられる。
この方法では、予測が有効である(頭が尾を向けているか、尾が頭を指しているか)。
最終的に重要なのは、物体の方向を検出することだが、その方向は検出しない。
新しい損失関数は、dotaおよびhrsc2016データセットで評価され、船のような細長いオブジェクトや、異なる形状の他のタイプのオブジェクトにも可能性を示した。
関連論文リスト
- Projecting Points to Axes: Oriented Object Detection via Point-Axis Representation [29.14485159194744]
オブジェクト指向物体検出のための点軸表現を導入し、その柔軟性と幾何学的直感性を2つの重要な要素である点と軸で強調する。
点軸表現は位置と回転を分離し、伝統的な境界ボックスベースのアプローチでよく発生する損失不連続問題に対処する。
本稿では,正確な点軸予測と終端検出のためのDETRフレームワークをシームレスに統合したオブジェクト指向DETRモデルを提案する。
論文 参考訳(メタデータ) (2024-07-11T13:23:04Z) - Improving the Detection of Small Oriented Objects in Aerial Images [0.0]
本研究では,オブジェクト指向物体検出モデルの分類・回帰タスクを強化することにより,空中画像中の小型物体を高精度に検出する手法を提案する。
ガイド・アテンション・ロス(GALoss)とボックス・ポイント・ロス(BPLoss)の2つの損失からなるアテンション・ポイント・ネットワークを設計した。
実験結果から,小型オブジェクトインスタンスを用いた標準指向型空中データセットにおける注意点ネットワークの有効性が示された。
論文 参考訳(メタデータ) (2024-01-12T11:00:07Z) - Object Detection in Aerial Images with Uncertainty-Aware Graph Network [61.02591506040606]
本稿では,ノードとエッジがオブジェクトによって表現される構造化グラフを用いた,新しい不確実性を考慮したオブジェクト検出フレームワークを提案する。
我々は我々のモデルをオブジェクトDETection(UAGDet)のための不確実性対応グラフネットワークと呼ぶ。
論文 参考訳(メタデータ) (2022-08-23T07:29:03Z) - Self-Supervised Video Object Segmentation via Cutout Prediction and
Tagging [117.73967303377381]
本稿では, 自己教師型ビデオオブジェクト(VOS)アプローチを提案する。
本手法は,対象情報と背景情報の両方を考慮した識別学習損失の定式化に基づく。
提案手法であるCT-VOSは, DAVIS-2017 と Youtube-VOS の2つの挑戦的なベンチマークにおいて,最先端の結果を達成している。
論文 参考訳(メタデータ) (2022-04-22T17:53:27Z) - DAFNe: A One-Stage Anchor-Free Deep Model for Oriented Object Detection [16.21161769128316]
DAFNe: オブジェクト指向物体検出のためのワンステージアンカーフリーディープネットワークを提案する。
アンカーフリーモデルとして、DAFNeはバウンディングボックスアンカーの使用を控えることで予測複雑性を低減する。
低品質な予測に対する任意指向の有界箱に対する中心性関数の指向性を考慮した一般化を提案する。
論文 参考訳(メタデータ) (2021-09-13T17:37:20Z) - Pretrained equivariant features improve unsupervised landmark discovery [69.02115180674885]
我々は、この課題を克服する2段階の教師なしアプローチを、強力なピクセルベースの特徴を初めて学習することによって定式化する。
本手法は,いくつかの難解なランドマーク検出データセットにおいて最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-04-07T05:42:11Z) - Delving into Localization Errors for Monocular 3D Object Detection [85.77319416168362]
単眼画像から3Dバウンディングボックスを推定することは、自動運転に不可欠な要素です。
本研究では, 各サブタスクがもたらす影響を定量化し, 局所化誤差を求めることが, モノクロ3次元検出の抑制に欠かせない要因である。
論文 参考訳(メタデータ) (2021-03-30T10:38:01Z) - End-to-end Deep Object Tracking with Circular Loss Function for Rotated
Bounding Box [68.8204255655161]
Transformer Multi-Head Attentionアーキテクチャに基づく新しいエンドツーエンドのディープラーニング手法を紹介します。
また,境界ボックスの重なりと向きを考慮に入れた新しいタイプの損失関数を提案する。
論文 参考訳(メタデータ) (2020-12-17T17:29:29Z) - Point-Set Anchors for Object Detection, Instance Segmentation and Pose
Estimation [85.96410825961966]
中心点から抽出された画像の特徴は、離れたキーポイントや境界ボックスの境界を予測するための限られた情報を含んでいると論じる。
推論を容易にするために,より有利な位置に配置された点集合からの回帰を行うことを提案する。
我々は、オブジェクト検出、インスタンス分割、人間のポーズ推定にPoint-Set Anchorsと呼ばれるこのフレームワークを適用した。
論文 参考訳(メタデータ) (2020-07-06T15:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。