論文の概要: Achieving Competitive Play Through Bottom-Up Approach in Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2103.00657v1
- Date: Sun, 28 Feb 2021 23:14:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 16:40:58.446139
- Title: Achieving Competitive Play Through Bottom-Up Approach in Semantic
Segmentation
- Title(参考訳): セマンティクスセグメンテーションにおけるボトムアップアプローチによる競争的プレーの実現
- Authors: E. Pryzant, Q. Deng, B. Mei, E. Shrestha
- Abstract要約: 視覚に基づく物体認識タスクのボトムアップ手法を用いて,高い性能が得られることを示す。
本論文では,全畳み込みニューラルネットワークを用いて4つの極端点と1つの中心点を検出するPuckNetを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the renaissance of neural networks, object detection has slowly shifted
from a bottom-up recognition problem to a top-down approach. Best in class
algorithms enumerate a near-complete list of objects and classify each into
object/not object. In this paper, we show that strong performance can still be
achieved using a bottom-up approach for vision-based object recognition tasks
and achieve competitive video game play. We propose PuckNet, which is used to
detect four extreme points (top, left, bottom, and right-most points) and one
center point of objects using a fully convolutional neural network. Object
detection is then a purely keypoint-based appearance estimation problem,
without implicit feature learning or region classification. The method proposed
herein performs on-par with the best in class region-based detection methods,
with a bounding box AP of 36.4% on COCO test-dev. In addition, the extreme
points estimated directly resolve into a rectangular object mask, with a COCO
Mask AP of 17.6%, outperforming the Mask AP of vanilla bounding boxes. Guided
segmentation of extreme points further improves this to 32.1% Mask AP. We
applied the PuckNet vision system to the SuperTuxKart video game to test it's
capacity to achieve competitive play in dynamic and co-operative multiplayer
environments.
- Abstract(参考訳): ニューラルネットワークのルネサンスにより、オブジェクト検出はボトムアップ認識問題からトップダウンアプローチへと徐々にシフトしている。
クラスアルゴリズムのベストは、オブジェクトのほぼ完全なリストを列挙し、それぞれをオブジェクト/notオブジェクトに分類する。
本稿では,視覚に基づくオブジェクト認識タスクのボトムアップアプローチと,競争力のあるゲームプレイを実現することで,強力なパフォーマンスを実現することができることを示す。
本稿では,完全畳み込みニューラルネットワークを用いて物体の4つの極点(上・左・下・右端)と1つの中心点を検出するpucknetを提案する。
オブジェクト検出は、暗黙的な特徴学習や領域分類なしに、純粋にキーポイントに基づく外観推定問題である。
提案手法は,COCOテストデブ上でのバウンディングボックスAPが36.4%で,クラス領域に基づく検出法で最良である。
さらに、推定される極端点は直交する物体マスクに直結し、COCO Mask APは17.6%であり、バニラ境界ボックスのMask APよりも優れている。
極点のガイド付きセグメンテーションによりさらにこれを 32.1% Mask AP に改善する。
我々は,PuckNetビジョンシステムをSuperTuxKartゲームに適用し,動的かつ協調的なマルチプレイヤー環境での競争力を実現する能力をテストする。
関連論文リスト
- LAC-Net: Linear-Fusion Attention-Guided Convolutional Network for Accurate Robotic Grasping Under the Occlusion [79.22197702626542]
本稿では, 乱れ場面におけるロボットグルーピングのためのアモーダルセグメンテーションを探求する枠組みを提案する。
線形融合注意誘導畳み込みネットワーク(LAC-Net)を提案する。
その結果,本手法が最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-06T14:50:48Z) - What You See Is What You Detect: Towards better Object Densification in
3D detection [2.3436632098950456]
広く使われているフル形状のコンプリートアプローチは、特に遠く離れた物や歩行者のような小さな物に対して、エラーのアップバウンドを高くする。
従来の手法が生成した予測ポイントの11.3%しか必要としない可視部分補完法を提案する。
密表現を復元するために,目に見える前景オブジェクトに関連付けられた点集合を拡大するメッシュデフォーメーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2023-10-27T01:46:37Z) - FreePoint: Unsupervised Point Cloud Instance Segmentation [72.64540130803687]
点クラウド上の教師なしクラス非依存のインスタンスセグメンテーションを探索するためのFreePointを提案する。
我々は、座標、色、そして自己監督の深い特徴を組み合わせることで、点の特徴を表現する。
ポイント機能に基づいて、ポイントクラウドを擬似ラベルとして粗いインスタンスマスクに分割し、ポイントクラウドインスタンスセグメンテーションモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-05-11T16:56:26Z) - Point-to-Box Network for Accurate Object Detection via Single Point
Supervision [51.95993495703855]
オフ・ザ・シェルフ提案法(OTSP)の軽量な代替手法を提案する。
P2BNetは、アンカーのような方法で提案を生成することで、オブジェクト間のバランスの取れた提案バッグを構築することができる。
コードはCOCO.com/ucas-vg/P2BNetでリリースされる。
論文 参考訳(メタデータ) (2022-07-14T11:32:00Z) - CenterNet++ for Object Detection [174.59360147041673]
ボトムアップアプローチはトップダウンと同じくらい競争力があり、リコールも高くなります。
CenterNetと呼ばれる我々のアプローチは、各オブジェクトを三重項キーポイント(左上と右下)として検出する。
MS-COCOデータセットでは、Res2Net-101 と Swin-Transformer の CenterNet がそれぞれ 53.7% と 57.1% のAPを達成している。
論文 参考訳(メタデータ) (2022-04-18T16:45:53Z) - Masked Discrimination for Self-Supervised Learning on Point Clouds [27.652157544218234]
マスク付きオートエンコーディングは、画像と言語領域における自己教師型学習において大きな成功を収めた。
PointNetのような標準的なバックボーンは、トレーニング中にマスクによって導入された分散ミスマッチのトレーニングとテストのミスマッチを適切に処理できない。
我々はこのギャップを、ポイントクラウドのための差別マスク事前学習フレームワークMaskPointを提案し、橋渡しする。
論文 参考訳(メタデータ) (2022-03-21T17:57:34Z) - Corner Proposal Network for Anchor-free, Two-stage Object Detection [174.59360147041673]
オブジェクト検出の目標は、画像内のオブジェクトのクラスと位置を決定することである。
本稿では,多数のオブジェクト提案を抽出する新しいアンカーフリー2段階フレームワークを提案する。
この2つの段階が,リコールと精度の向上に有効な解であることを示す。
論文 参考訳(メタデータ) (2020-07-27T19:04:57Z) - A Self-Training Approach for Point-Supervised Object Detection and
Counting in Crowds [54.73161039445703]
本稿では,ポイントレベルのアノテーションのみを用いて訓練された典型的なオブジェクト検出を可能にする,新たな自己学習手法を提案する。
トレーニング中、利用可能なポイントアノテーションを使用して、オブジェクトの中心点の推定を監督する。
実験の結果,本手法は検出タスクとカウントタスクの両方において,最先端のポイント管理手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2020-07-25T02:14:42Z) - Deep Affinity Net: Instance Segmentation via Affinity [48.498706304017674]
Deep Affinity Netは、グラフ分割アルゴリズムCascade-GAECを伴って、効果的なアフィニティベースのアプローチである。
すべてのアフィニティベースのモデルの中で、最高のシングルショット結果と最速のランニングタイムを達成する。
また、リージョンベースのMask R-CNNよりも優れています。
論文 参考訳(メタデータ) (2020-03-15T15:22:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。