論文の概要: Soccer Event Detection Using Deep Learning
- arxiv url: http://arxiv.org/abs/2102.04331v1
- Date: Mon, 8 Feb 2021 16:37:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 15:38:10.467386
- Title: Soccer Event Detection Using Deep Learning
- Title(参考訳): ディープラーニングを用いたサッカーイベント検出
- Authors: Ali Karimi, Ramin Toosi, Mohammad Ali Akhaee
- Abstract要約: 我々は,赤と黄色のカードのイメージの区別を重視した,サッカーの試合におけるイベント検出のための深層学習手法を提案する。
最終章では、UEFAチャンピオンズリーグの10試合が、イベントの検出におけるネットワークのパフォーマンスと精度を評価するために使用される。
- 参考スコア(独自算出の注目度): 9.032441315821893
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Event detection is an important step in extracting knowledge from the video.
In this paper, we propose a deep learning approach to detect events in a soccer
match emphasizing the distinction between images of red and yellow cards and
the correct detection of the images of selected events from other images. This
method includes the following three modules: i) the variational autoencoder
(VAE) module to differentiate between soccer images and others image, ii) the
image classification module to classify the images of events, and iii) the
fine-grain image classification module to classify the images of red and yellow
cards. Additionally, a new dataset was introduced for soccer images
classification that is employed to train the networks mentioned in the paper.
In the final section, 10 UEFA Champions League matches are used to evaluate the
networks' performance and precision in detecting the events. The experiments
demonstrate that the proposed method achieves better performance than
state-of-the-art methods.
- Abstract(参考訳): イベント検出は、ビデオから知識を抽出する重要なステップである。
本稿では,赤と黄色のカードのイメージの区別と,選択したイベントのイメージを他の画像から正しく検出することを強調する,サッカーの試合におけるイベント検出のための深層学習手法を提案する。
i)サッカー画像と他の画像とを区別する可変オートエンコーダ(VAE)モジュール、ii)イベント画像を分類する画像分類モジュール、iii)赤と黄色のカードの画像を分類する微細粒画像分類モジュールの3つのモジュールを含む。
さらに,本論文で紹介したネットワークのトレーニングに使用される,サッカー画像分類のための新しいデータセットも導入された。
最終章では、uefaチャンピオンズリーグの10試合が、ネットワークのパフォーマンスとイベント検出の精度を評価するために使用される。
実験により,提案手法は最先端手法よりも優れた性能を示すことが示された。
関連論文リスト
- Improving Computer Vision Interpretability: Transparent Two-level Classification for Complex Scenes [0.694388984236049]
本稿では,透明性問題に対処する2段階の分類手法を提案する。
この手法を、14万枚以上の画像からなる新しいデータセットに適用し、政治的抗議を示すものを検出する。
オブジェクトを知ることは、抗議的なイメージと非抗議的なイメージを区別する分析を可能にする。
論文 参考訳(メタデータ) (2024-07-04T09:48:58Z) - Transformer based Multitask Learning for Image Captioning and Object
Detection [13.340784876489927]
本研究は,画像キャプションとオブジェクト検出を結合モデルに組み合わせた,新しいマルチタスク学習フレームワークを提案する。
我々は,2つのタスクを共同で訓練するためのTICOD, Transformer-based Image Captioning, Object Detectionモデルを提案する。
我々のモデルはBERTScoreの3.65%の改善によって、画像キャプション文学のベースラインを上回ります。
論文 参考訳(メタデータ) (2024-03-10T19:31:13Z) - Leveraging Open-Vocabulary Diffusion to Camouflaged Instance
Segmentation [59.78520153338878]
テキスト・ツー・イメージ拡散技術は、テキスト記述から高品質な画像を生成する素晴らしい能力を示している。
そこで本研究では,オープン語彙を応用した最先端拡散モデルを用いて,多スケールのテキスト・視覚的特徴を学習する手法を提案する。
論文 参考訳(メタデータ) (2023-12-29T07:59:07Z) - Improving Image Recognition by Retrieving from Web-Scale Image-Text Data [68.63453336523318]
本稿では,メモリから抽出した各サンプルの重要性を学習するアテンションベースのメモリモジュールを提案する。
既存の手法と比較して,提案手法は無関係な検索例の影響を排除し,入力クエリに有益であるものを保持する。
我々は、ImageNet-LT、Places-LT、Webvisionのデータセットで最先端の精度を実現していることを示す。
論文 参考訳(メタデータ) (2023-04-11T12:12:05Z) - Learning to Detect Good Keypoints to Match Non-Rigid Objects in RGB
Images [7.428474910083337]
本稿では,非剛性画像対応タスクの正マッチ数を最大化するために,新しい学習キーポイント検出手法を提案する。
我々のトレーニングフレームワークは、アノテートされた画像対と予め定義された記述子抽出器をマッチングして得られる真の対応を利用して、畳み込みニューラルネットワーク(CNN)を訓練する。
実験の結果,本手法は平均整合精度で20時までに非剛体物体の実像に対して,最先端のキーポイント検出器よりも優れていた。
論文 参考訳(メタデータ) (2022-12-13T11:59:09Z) - ObjectFormer for Image Manipulation Detection and Localization [118.89882740099137]
画像操作の検出とローカライズを行うObjectFormerを提案する。
画像の高周波特徴を抽出し,マルチモーダルパッチの埋め込みとしてRGB特徴と組み合わせる。
各種データセットについて広範な実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-03-28T12:27:34Z) - SISL:Self-Supervised Image Signature Learning for Splicing Detection and
Localization [11.437760125881049]
画像の周波数変換からスプライシング検出/局所化モデルを訓練するための自己教師型アプローチを提案する。
提案したモデルでは,ラベルやメタデータを使わずに,標準データセット上で同様のあるいはより良いパフォーマンスが得られる。
論文 参考訳(メタデータ) (2022-03-15T12:26:29Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Instance Localization for Self-supervised Detection Pretraining [68.24102560821623]
インスタンスローカリゼーションと呼ばれる,新たな自己監視型プリテキストタスクを提案する。
境界ボックスを事前学習に組み込むことで、より優れたタスクアライメントとアーキテクチャアライメントが促進されることを示す。
実験結果から, オブジェクト検出のための最先端の転送学習結果が得られた。
論文 参考訳(メタデータ) (2021-02-16T17:58:57Z) - Learning to Focus: Cascaded Feature Matching Network for Few-shot Image
Recognition [38.49419948988415]
ディープネットワークは、多数の画像でトレーニングすることで、カテゴリのオブジェクトを正確に認識することを学ぶことができる。
低ショット画像認識タスク(low-shot image recognition task)として知られるメタラーニングの課題は、1つのカテゴリの認識モデルを学ぶためにアノテーション付き画像しか利用できない場合に発生する。
この問題を解決するため,Cascaded Feature Matching Network (CFMN) と呼ばれる手法を提案する。
EmphminiImageNet と Omniglot の2つの標準データセットを用いた数ショット学習実験により,本手法の有効性が確認された。
論文 参考訳(メタデータ) (2021-01-13T11:37:28Z) - Improving Object Detection with Selective Self-supervised Self-training [62.792445237541145]
本研究では,Web画像を利用した人為的対象検出データセットの強化について検討する。
画像と画像の検索によりWebイメージを検索し、他の検索手法に比べて、キュレートされたデータからのドメインシフトが少なくなる。
画像分類のためのラベルのないデータを探索する2つの並列処理をモチベーションとした新しい学習手法を提案する。
論文 参考訳(メタデータ) (2020-07-17T18:05:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。