論文の概要: What Happened Next? Using Deep Learning to Value Defensive Actions in
Football Event-Data
- arxiv url: http://arxiv.org/abs/2106.01786v1
- Date: Thu, 3 Jun 2021 12:18:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 20:32:56.527707
- Title: What Happened Next? Using Deep Learning to Value Defensive Actions in
Football Event-Data
- Title(参考訳): 次に何があった?
フットボールイベントデータにおける深層学習による防御行動の評価
- Authors: Charbel Merhej, Ryan Beal, Sarvapali Ramchurn (University of
Southampton), Tim Matthews (Sentient Sports)
- Abstract要約: 我々は、このような防御行動を評価する新しいメトリクスを定義するために、ディープラーニング技術を使用します。
それらに先行するプレイパスの脅威を研究することで、私たちは防御行動を評価することができます。
我々のモデルは、イベントデータを用いてディフェンスディフェンダーの影響を予測することができる。
- 参考スコア(独自算出の注目度): 1.290382979353427
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Objectively quantifying the value of player actions in football (soccer) is a
challenging problem. To date, studies in football analytics have mainly focused
on the attacking side of the game, while there has been less work on
event-driven metrics for valuing defensive actions (e.g., tackles and
interceptions). Therefore in this paper, we use deep learning techniques to
define a novel metric that values such defensive actions by studying the threat
of passages of play that preceded them. By doing so, we are able to value
defensive actions based on what they prevented from happening in the game. Our
Defensive Action Expected Threat (DAxT) model has been validated using
real-world event-data from the 2017/2018 and 2018/2019 English Premier League
seasons, and we combine our model outputs with additional features to derive an
overall rating of defensive ability for players. Overall, we find that our
model is able to predict the impact of defensive actions allowing us to better
value defenders using event-data.
- Abstract(参考訳): サッカーにおける選手行動(soccer)の価値を客観的に定量化することは難しい問題である。
これまで、サッカー分析の研究は主に攻撃的な側面に焦点を当ててきたが、防御行動(タックルやインターセプトなど)を評価するためのイベント駆動のメトリクスの作業は少ない。
そこで本稿では,遊びの通路の脅威を研究することによって,このような防御的行動を評価できる新しい指標を定義するために,深層学習手法を用いる。
そうすることで、ゲーム内で何が起こらないかに基づいて、防御的なアクションを評価できます。
我々のDefensive Action expected Threat(DAxT)モデルは、2017/2018年と2018/2019年のイングランドプレミアリーグシーズンの実際のイベントデータを用いて検証され、我々のモデル出力と追加機能を組み合わせて、プレイヤーの防御能力を総合的に評価する。
全体として、当社のモデルは防御行動の影響を予測でき、イベントデータを使用してディフェンダーによりよい価値を与えることができます。
関連論文リスト
- Defense Against Prompt Injection Attack by Leveraging Attack Techniques [66.65466992544728]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクで顕著なパフォーマンスを実現している。
LLMが進化を続けるにつれて、新しい脆弱性、特にインジェクション攻撃が発生する。
近年の攻撃手法は, LLMの命令追従能力とデータ内容に注入された命令を識別する能力を活用している。
論文 参考訳(メタデータ) (2024-11-01T09:14:21Z) - Expected Possession Value of Control and Duel Actions for Soccer Player's Skills Estimation [0.0]
本稿では、広く使われているモデル、期待所有値(EPV)に複数の拡張を導入する。
撮影直前に発生する事象に、先行する出来事よりも重みを割り当てる(デカイ効果)。
本モデルでは, 減衰効果と有効演奏時間を考慮することにより, 保持リスクをより正確に評価する。
論文 参考訳(メタデータ) (2024-06-02T17:29:42Z) - Engineering Features to Improve Pass Prediction in Soccer Simulation 2D
Games [0.0]
サッカーシミュレーション2D(英: Soccer Simulation 2D)は、2次元の実際のサッカーゲームのシミュレーションである。
我々は,Deep Neural Networks (DNN) とRandom Forest (RF) を用いたサッカー2Dプレーヤーのパス動作のモデル化を試みた。
RoboCup 2019の6つのトップチームに対して、トレーニングされたモデルのパフォーマンスを評価する。
論文 参考訳(メタデータ) (2024-01-07T08:01:25Z) - Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - The Best Defense is a Good Offense: Adversarial Augmentation against
Adversarial Attacks [91.56314751983133]
A5$は、手元の入力に対する攻撃が失敗することを保証するために防御的摂動を構築するためのフレームワークである。
我々は,地上の真理ラベルを無視するロバスト化ネットワークを用いて,実機での防御強化を効果的に示す。
また、A5$を適用して、確実に堅牢な物理オブジェクトを作成する方法も示します。
論文 参考訳(メタデータ) (2023-05-23T16:07:58Z) - Location analysis of players in UEFA EURO 2020 and 2022 using
generalized valuation of defense by estimating probabilities [0.6946929968559495]
イベントの予測確率をスコアスキャニングすることで,防衛チームの総合評価手法を提案する。
男子Euro 2020と女子Euro 2022のフットボールゲームにおける放送ビデオフレーム中の選手のオープンソース位置情報を用いて,選手数の予測への影響を検討した。
論文 参考訳(メタデータ) (2022-11-30T12:43:11Z) - The Art of Manipulation: Threat of Multi-Step Manipulative Attacks in
Security Games [8.87104231451079]
本稿では,Stackelbergセキュリティゲームにおけるマルチステップマニピュレータ攻撃の問題点について検討する。
巧妙な攻撃者は、攻撃者の行動に関するディフェンダーの学習を誤解させるために、複数の時間ステップで攻撃を組織しようと試みる。
この攻撃操作は最終的に、攻撃者の利益に対する守備者のパトロール戦略に影響を与える。
論文 参考訳(メタデータ) (2022-02-27T18:58:15Z) - Adversarial Classification of the Attacks on Smart Grids Using Game
Theory and Deep Learning [27.69899235394942]
本稿では,攻撃者によるパワー測定における変動を評価するためのゲーム理論的手法を提案する。
ゼロサムゲームは、攻撃者とディフェンダーの間の相互作用をモデル化するために使用される。
論文 参考訳(メタデータ) (2021-06-06T18:43:28Z) - Fighting Gradients with Gradients: Dynamic Defenses against Adversarial
Attacks [72.59081183040682]
我々は,防御エントロピー最小化(dent)により,テスト中にモデルと入力に適応する動的防御を提案する。
dentは、CIFAR-10/100およびImageNetに対する、敵に訓練された防御と名指しで訓練されたモデルの堅牢性を改善する。
論文 参考訳(メタデータ) (2021-05-18T17:55:07Z) - What Doesn't Kill You Makes You Robust(er): Adversarial Training against
Poisons and Backdoors [57.040948169155925]
敵対的なトレーニングフレームワークを拡張し、(訓練時間)中毒やバックドア攻撃から防御します。
本手法は, トレーニング中に毒を発生させ, トレーニングバッチに注入することにより, ネットワークを中毒の影響に敏感化する。
この防御は、適応攻撃に耐え、多様な脅威モデルに一般化し、以前の防御よりも優れた性能のトレードオフをもたらすことを示す。
論文 参考訳(メタデータ) (2021-02-26T17:54:36Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。