論文の概要: 2nd Place Solution to Google Landmark Recognition Competition 2021
- arxiv url: http://arxiv.org/abs/2110.02638v1
- Date: Wed, 6 Oct 2021 10:28:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 14:25:33.555741
- Title: 2nd Place Solution to Google Landmark Recognition Competition 2021
- Title(参考訳): googleのランドマーク認識競争、2021年の2位に
- Authors: Shubin Dai
- Abstract要約: そこで我々は,Kaggleで開かれたGoogle Landmark Recognition 2021 Challengeに,その解決策を提示する。
Swin, CSWin, EfficientNet B7 モデルの完全なパイプラインは、プライベートなリーダーボードで 0.4907 を獲得し、コンペで2位になるのに役立ちます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Transformer-based architectures have recently shown encouraging progresses
in computer vision. In this work, we present the solution to the Google
Landmark Recognition 2021 Challenge held on Kaggle, which is an improvement on
our last year's solution by changing three designs, including (1) Using Swin
and CSWin as backbone for feature extraction, (2) Train on full GLDv2, and (3)
Using full GLDv2 images as index image set for kNN search.
With these modifications, our solution significantly improves last year
solution on this year competition. Our full pipeline, after ensembling Swin,
CSWin, EfficientNet B7 models, scores 0.4907 on the private leaderboard which
help us to get the 2nd place in the competition.
- Abstract(参考訳): Transformerベースのアーキテクチャは、最近コンピュータビジョンの進歩を奨励している。
本研究では,(1)SwinとCSWinを機能抽出のバックボーンとして使用すること,(2)フルGLDv2のトレーニング,(3)フルGLDv2画像をkNN検索のインデックスイメージセットとして使用すること,の3つの設計を変更することで,昨年のソリューションを改善したKaggle上でのGoogleランドマーク認識2021チャレンジに対するソリューションを提案する。
これらの修正により、今年の競争におけるソリューションは大幅に改善されました。
Swin, CSWin, EfficientNet B7 モデルの完全なパイプラインは、プライベートなリーダーボードで 0.4907 を獲得し、コンペで2位になるのに役立ちます。
関連論文リスト
- 2nd Place Solution to Google Universal Image Embedding [0.0]
本稿では,Google Universal Image Embedding Competitionにおける第2位のソリューションについて述べる。
この競合を解くために、インスタンスレベルのきめ細かい画像分類法を用いる。
論文 参考訳(メタデータ) (2022-10-17T04:04:16Z) - 1st Place Solution in Google Universal Images Embedding [0.0]
本稿では,Google Universal Images Embedding Competition on Kaggleにおいて,第1位となるソリューションを提案する。
ソリューションの強調された部分は、1)トレーニングと微調整を行う新しい方法、2)埋め込みを行うモデルのプールにより良いアンサンブルのアイデア、3)高解像度と重なり合うパッチに対する微調整の潜在的なトレードオフに基づいています。
論文 参考訳(メタデータ) (2022-10-16T07:46:23Z) - Bridging the Gap of AutoGraph between Academia and Industry: Analysing
AutoGraph Challenge at KDD Cup 2020 [61.31176652211479]
グラフニューラルネットワーク(GNN)はグラフ構造化データのモデリングに有効であることが証明されており、GNNアーキテクチャの多くのバリエーションが提案されている。
研究者は自然にグラフ学習に機械学習を導入し、人間の労力を減らし、一般的に最高のパフォーマンスのGNNを実現することを目指している。
GNN実践者の自動化ソリューションを理解するため、我々はKDD Cup 2020でAutoGraph Challengeを組織し、ノード分類のためのグラフ自動ニューラルネットワークを強調した。
論文 参考訳(メタデータ) (2022-04-06T07:06:48Z) - Google Landmark Retrieval 2021 Competition Third Place Solution [5.2576738414324335]
我々は、検索と認識トラックの両方に対して、Google Landmark Challenges 2021にソリューションを提示する。
どちらのソリューションも、動的マージンを持つSub-center ArcFaceに基づくトランスフォーマーとConvNetモデルのアンサンブルである。
論文 参考訳(メタデータ) (2021-10-09T17:56:40Z) - 3rd Place Solution to Google Landmark Recognition Competition 2021 [17.59843220514826]
Google Landmark Recognition 2021コンペティションのソリューションを紹介します。
アンサンブルされたモデルは、民間のリーダーボードで0.489点を獲得し、2021年のGoogleランドマーク認識コンペティションで3位となった。
論文 参考訳(メタデータ) (2021-10-06T14:17:54Z) - NTIRE 2021 Challenge on Video Super-Resolution [103.59395980541574]
Super-Resolution (SR) はコンピュータビジョンタスクであり、与えられた低解像度の画像から高解像度のクリーンイメージを得る。
本稿では,NTIRE Challenge on Video Super-Resolutionをレビューする。
論文 参考訳(メタデータ) (2021-04-30T09:12:19Z) - Google Landmark Recognition 2020 Competition Third Place Solution [5.1215007533994]
われわれは、Google Landmark Recognition 2020コンペティションの3位となるソリューションを提示する。
これは、サブセンターのArcFaceモデルのみのグローバル機能のアンサンブルである。
クラスサイズの調律可能なマージン関数群であるArcFace損失の動的マージンを導入する。
論文 参考訳(メタデータ) (2020-10-11T21:30:43Z) - NTIRE 2020 Challenge on Real-World Image Super-Resolution: Methods and
Results [148.54397669654958]
本稿は,NTIRE 2020における現実世界の超解像に関する課題を概観する。
この課題は、真の高解像度画像と低解像度画像のペアが利用できない現実世界の設定に対処する。
合計22チームが最終テストフェーズに出場し、この問題に対する新しい革新的な解決策を実証した。
論文 参考訳(メタデータ) (2020-05-05T08:17:04Z) - 1st Place Solutions for OpenImage2019 -- Object Detection and Instance
Segmentation [116.25081559037872]
この記事では,2つのチャンピオンチーム,検出トラックのMMfruit'とセグメンテーショントラックのMMfruitSeg'のソリューションについて,OpenImage Challenge 2019で紹介する。
一般に、対象検出器の場合、バックボーンの端の共有特徴は分類と回帰の両方に適さないことが知られている。
自己学習型最適特徴抽出によりオブジェクトの分類と回帰を分離するデカップリングヘッド(DH)を提案する。
論文 参考訳(メタデータ) (2020-03-17T06:45:07Z) - Top-1 Solution of Multi-Moments in Time Challenge 2019 [56.15819266653481]
一般的な画像に基づく行動認識手法であるTRN, TSN, TSMを用いて, 実験を行った。
高速かつ正確な認識に向けて,新しい時間的インターレースネットワークを提案する。
我々は上記の全てのモデルをアンサンブルし、検証セットで67.22%、テストセットで60.77%を獲得し、最終リーダーボードで1位となった。
論文 参考訳(メタデータ) (2020-03-12T15:11:38Z) - Analysing Affective Behavior in the First ABAW 2020 Competition [49.90617840789334]
ABAW(Affective Behavior Analysis in-the-Wild) 2020コンペティションは、3つの主要な行動タスクの自動分析を目的とした最初のコンペティションである。
アルゼンチンのブエノスアイレスで2020年5月に開催されたIEEE Face and Gesture Recognitionと共同で開催されるこのコンペティションについて説明する。
評価指標を概説し,ベースラインシステムとトップ3の実施するチームの方法論をチャレンジ毎に提示し,その結果を最終的に提示する。
論文 参考訳(メタデータ) (2020-01-30T15:41:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。