論文の概要: Web-Scale Generic Object Detection at Microsoft Bing
- arxiv url: http://arxiv.org/abs/2107.01814v1
- Date: Mon, 5 Jul 2021 06:46:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-06 14:59:18.387961
- Title: Web-Scale Generic Object Detection at Microsoft Bing
- Title(参考訳): Microsoft BingにおけるWebスケールジェネリックオブジェクト検出
- Authors: Stephen Xi Chen, Saurajit Mukherjee, Unmesh Phadke, Tingting Wang,
Junwon Park, Ravi Theja Yada
- Abstract要約: 我々は、Webスケールの汎用ビジュアル検索エンジンにデプロイされた最大のオブジェクト検出システムであるジェネリックオブジェクト検出(GenOD)を提案する。
ほぼリアルタイムで、すべてのMicrosoft Bing Visual Searchクエリの900以上のカテゴリを検出することができる。
- 参考スコア(独自算出の注目度): 4.350999432264304
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we present Generic Object Detection (GenOD), one of the
largest object detection systems deployed to a web-scale general visual search
engine that can detect over 900 categories for all Microsoft Bing Visual Search
queries in near real-time. It acts as a fundamental visual query understanding
service that provides object-centric information and shows gains in multiple
production scenarios, improving upon domain-specific models. We discuss the
challenges of collecting data, training, deploying and updating such a
large-scale object detection model with multiple dependencies. We discuss a
data collection pipeline that reduces per-bounding box labeling cost by 81.5%
and latency by 61.2% while improving on annotation quality. We show that GenOD
can improve weighted average precision by over 20% compared to multiple
domain-specific models. We also improve the model update agility by nearly 2
times with the proposed disjoint detector training compared to joint
fine-tuning. Finally we demonstrate how GenOD benefits visual search
applications by significantly improving object-level search relevance by 54.9%
and user engagement by 59.9%.
- Abstract(参考訳): 本稿では,ジェネリックオブジェクト検出(GenOD)を提案する。ジェネリックオブジェクト検出(GenOD)は,Webスケールの汎用ビジュアル検索エンジンにデプロイされ,ほぼリアルタイムで全Microsoft Bingビジュアル検索クエリに対して900以上のカテゴリを検出できる。
オブジェクト中心の情報を提供し、複数のプロダクションシナリオで利益を示し、ドメイン固有のモデルを改善する、基本的なビジュアルクエリ理解サービスとして機能する。
複数の依存関係を持つ大規模オブジェクト検出モデルにおいて,データの収集,トレーニング,デプロイ,更新といった課題について論じる。
アノテーション品質を改善しつつ、バウンダリングボックスごとのラベリングコストを81.5%削減し、レイテンシを61.2%削減するデータ収集パイプラインについて論じる。
複数のドメイン固有モデルと比較して、GenODは平均精度を20%以上向上できることを示す。
また,共同微調整と比較して,不一致検出訓練により,モデル更新のアジリティを約2倍向上させた。
最後に,オブジェクトレベルの検索関連度を54.9%,ユーザエンゲージメントを59.9%向上させることで,genodが視覚的検索アプリケーションにどのようなメリットをもたらすかを実証する。
関連論文リスト
- Bayesian Detector Combination for Object Detection with Crowdsourced Annotations [49.43709660948812]
制約のない画像できめ細かなオブジェクト検出アノテーションを取得するのは、時間がかかり、コストがかかり、ノイズに悩まされる。
ノイズの多いクラウドソースアノテーションでオブジェクト検出をより効果的に訓練するための新しいベイズ検出結合(BDC)フレームワークを提案する。
BDCはモデルに依存しず、アノテータのスキルレベルに関する事前の知識を必要とせず、既存のオブジェクト検出モデルとシームレスに統合される。
論文 参考訳(メタデータ) (2024-07-10T18:00:54Z) - A High-Resolution Dataset for Instance Detection with Multi-View
Instance Capture [15.298790238028356]
インスタンス検出(InsDet)は、ロボット工学とコンピュータビジョンにおける長期的な問題である。
現在のInsDetは、今日の標準ではスケールが小さすぎる。
InsDetの新しいデータセットとプロトコルを導入します。
論文 参考訳(メタデータ) (2023-10-30T03:58:41Z) - ComplETR: Reducing the cost of annotations for object detection in dense
scenes with vision transformers [73.29057814695459]
ComplETRは、部分的にアノテートされた高密度なシーンデータセットで欠落したアノテーションを明示的に補完するように設計されている。
これにより、シーン内のすべてのオブジェクトインスタンスに注釈を付ける必要がなくなり、アノテーションのコストが削減される。
本稿では, 高速R-CNN, カスケードR-CNN, CenterNet2, Deformable DETRなどの人気検出器の性能向上を示す。
論文 参考訳(メタデータ) (2022-09-13T00:11:16Z) - Scaling Novel Object Detection with Weakly Supervised Detection
Transformers [21.219817483091166]
Weakly Supervised Detection Transformerを提案する。これは大規模な事前学習データセットからWSODファインタニングへの効率的な知識伝達を可能にする。
提案手法は, 大規模オブジェクト検出データセットにおいて, 従来の最先端モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-07-11T21:45:54Z) - Dynamic Relevance Learning for Few-Shot Object Detection [6.550840743803705]
動的グラフ畳み込みネットワーク(GCN)を構築するために,すべてのサポート画像とクエリ画像上の関心領域(RoI)の関係を利用した動的関連学習モデルを提案する。
提案モデルでは,より一般化された特徴の学習の有効性を示す総合的な性能が得られた。
論文 参考訳(メタデータ) (2021-08-04T18:29:42Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Scale-aware Automatic Augmentation for Object Detection [63.087930708444695]
オブジェクト検出のためのデータ拡張ポリシーを学ぶために,Scale-aware AutoAugを提案する。
実験では、Scale-aware AutoAugはさまざまな物体検出器に有意で一貫した改善をもたらす。
論文 参考訳(メタデータ) (2021-03-31T17:11:14Z) - End-to-End Multi-Object Tracking with Global Response Map [23.755882375664875]
画像シーケンス/映像を入力とし、学習対象の位置と追跡対象を直接出力する、完全にエンドツーエンドのアプローチを提案する。
具体的には,提案した多目的表現戦略により,グローバル応答マップをフレーム上で正確に生成することができる。
MOT16 と MOT17 のベンチマークによる実験結果から,提案したオンライントラッカーは,いくつかのトラッキング指標において最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-07-13T12:30:49Z) - AutoOD: Automated Outlier Detection via Curiosity-guided Search and
Self-imitation Learning [72.99415402575886]
外乱検出は重要なデータマイニングの課題であり、多くの実用的応用がある。
本稿では,最適なニューラルネットワークモデルを探すことを目的とした自動外乱検出フレームワークであるAutoODを提案する。
さまざまな実世界のベンチマークデータセットに対する実験結果から、AutoODが特定したディープモデルが最高のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-06-19T18:57:51Z) - Condensing Two-stage Detection with Automatic Object Key Part Discovery [87.1034745775229]
2段階の物体検出器は通常、高い精度を達成するために、検出ヘッドのために過度に大きなモデルを必要とする。
そこで本研究では,2段階検出ヘッドのモデルパラメータを,対象キー部分に集中させることで縮合・縮小できることを示す。
提案手法は、一般的な2段検出ヘッドのモデルパラメータの約50%を放棄しながら、元の性能を一貫して維持する。
論文 参考訳(メタデータ) (2020-06-10T01:20:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。