論文の概要: Team-DETR: Guide Queries as a Professional Team in Detection
Transformers
- arxiv url: http://arxiv.org/abs/2302.07116v1
- Date: Tue, 14 Feb 2023 15:21:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 15:18:22.452390
- Title: Team-DETR: Guide Queries as a Professional Team in Detection
Transformers
- Title(参考訳): team-detr: 検出トランスフォーマーのプロフェッショナルチームとしてのクエリガイド
- Authors: Tian Qiu, Linyun Zhou, Wenxiang Xu, Lechao Cheng, Zunlei Feng, Mingli
Song
- Abstract要約: 我々は、クエリの協調と位置制約を活用して、興味のあるオブジェクトをより正確に受け入れるチームDETRを提案する。
また、クエリーメンバーの予測設定を動的に調整し、クエリーのスケールと空間の優先順位をより良くします。
さらに、提案されたTeam DETRは、パラメータや計算量を増やすことなく既存のDETRに適応できるほど柔軟である。
- 参考スコア(独自算出の注目度): 31.521916994653235
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent proposed DETR variants have made tremendous progress in various
scenarios due to their streamlined processes and remarkable performance.
However, the learned queries usually explore the global context to generate the
final set prediction, resulting in redundant burdens and unfaithful results.
More specifically, a query is commonly responsible for objects of different
scales and positions, which is a challenge for the query itself, and will cause
spatial resource competition among queries. To alleviate this issue, we propose
Team DETR, which leverages query collaboration and position constraints to
embrace objects of interest more precisely. We also dynamically cater to each
query member's prediction preference, offering the query better scale and
spatial priors. In addition, the proposed Team DETR is flexible enough to be
adapted to other existing DETR variants without increasing parameters and
calculations. Extensive experiments on the COCO dataset show that Team DETR
achieves remarkable gains, especially for small and large objects. Code is
available at \url{https://github.com/horrible-dong/TeamDETR}.
- Abstract(参考訳): 近年提案された DETR 変種は,プロセスの合理化や性能の向上により,様々なシナリオにおいて大きな進歩を遂げている。
しかしながら、学習されたクエリは通常、最終セットの予測を生成するためにグローバルコンテキストを探索し、冗長な負担と不適切な結果をもたらす。
より具体的に言うと、クエリは一般的に、異なるスケールと位置のオブジェクトに責任を持ち、クエリ自体の課題であり、クエリ間の空間的リソース競合を引き起こす。
この問題を軽減するため,我々は,クエリのコラボレーションと位置制約を利用してより正確に対象を取り込むteam detrを提案する。
また,各問合せメンバの予測嗜好にも動的に対応し,クエリのスケールと空間優先性が向上した。
さらに、提案されたTeam DETRは、パラメータや計算量を増やすことなく既存のDETRに適応できるほど柔軟である。
cocoデータセットに関する広範囲な実験により、team detrは特に小さなオブジェクトと大きなオブジェクトで顕著な成果を上げている。
コードは \url{https://github.com/horrible-dong/TeamDETR} で公開されている。
関連論文リスト
- Diversifying Query: Region-Guided Transformer for Temporal Sentence Grounding [30.33362992577831]
時間的文接地のための地域ガイド型TRansformer(RGTR)を提案する。
学習可能なクエリを使う代わりに、RGTRは一連のアンカーペアをモーメントクエリとして採用して、明示的な地域ガイダンスを導入している。
大規模な実験は、データセット上で最先端の手法より優れたRGTRの有効性を示す。
論文 参考訳(メタデータ) (2024-05-31T19:13:09Z) - Groupwise Query Specialization and Quality-Aware Multi-Assignment for Transformer-based Visual Relationship Detection [21.352923995507595]
最近、Transformerベースのアーキテクチャで視覚的関係検出(VRD)が大幅に進歩している。
トランスフォーマーをベースとしたVRDモデルのトレーニングにおいて,従来のラベル割り当てにおける2つの重要な制限を識別する。
これらの問題に対処するため,グループワイドクエリと品質を考慮したマルチアサイン(SpeaQ)が提案されている。
論文 参考訳(メタデータ) (2024-03-26T13:56:34Z) - MS-DETR: Efficient DETR Training with Mixed Supervision [74.93329653526952]
MS-DETRは、推論に使用されるプライマリデコーダのオブジェクトクエリを1対1で監視する。
このアプローチではデコーダのブランチやオブジェクトクエリを追加する必要はありません。
実験結果から,本手法はDETRの変種よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-08T16:08:53Z) - JoinGym: An Efficient Query Optimization Environment for Reinforcement
Learning [58.71541261221863]
結合順序選択(JOS)は、クエリの実行コストを最小化するために結合操作を順序付けする問題である。
木質強化学習(RL)のためのクエリ最適化環境JoinGymを提案する。
JoinGymは内部で、事前計算されたデータセットから中間結果の濃度を調べることで、クエリプランのコストをシミュレートする。
論文 参考訳(メタデータ) (2023-07-21T17:00:06Z) - Logical Message Passing Networks with One-hop Inference on Atomic
Formulas [57.47174363091452]
本稿では,ニューラルネットワーク演算子から知識グラフの埋め込みを分解する,複雑な問合せ応答のためのフレームワークを提案する。
クエリグラフの上に、局所的な原子式上のワンホップ推論とグローバル論理的推論を結びつける論理メッセージパッシングニューラルネットワーク(LMPNN)を提案する。
我々のアプローチは、最先端のニューラルCQAモデルをもたらす。
論文 参考訳(メタデータ) (2023-01-21T02:34:06Z) - Group DETR: Fast DETR Training with Group-Wise One-to-Many Assignment [80.55064790937092]
複数の予測に1つの基幹オブジェクトを割り当てる1対多の割り当ては、より高速なR-CNNやFCOSのような検出方法に成功している。
グループDETR(Group DETR)は、単純だが効率的なDECRトレーニング手法であり、一対多の割り当てのためのグループワイドな方法を導入する。
実験により、グループDETRはトレーニング収束を著しく高速化し、様々なDETRモデルの性能を向上させることが示された。
論文 参考訳(メタデータ) (2022-07-26T17:57:58Z) - End-to-End Object Detection with Transformers [88.06357745922716]
本稿では,オブジェクト検出を直接セット予測問題とみなす新しい手法を提案する。
我々のアプローチは検出パイプラインを合理化し、手作業で設計された多くのコンポーネントの必要性を効果的に除去する。
この新しいフレームワークの主な構成要素は、Detection TRansformerまたはDETRと呼ばれ、セットベースのグローバルな損失である。
論文 参考訳(メタデータ) (2020-05-26T17:06:38Z) - Query Resolution for Conversational Search with Limited Supervision [63.131221660019776]
本稿では,双方向トランスフォーマに基づくニューラルクエリ解決モデルQuReTeCを提案する。
我々はQuReTeCが最先端モデルより優れており、また、QuReTeCのトレーニングに必要な人為的なデータ量を大幅に削減するために、我々の遠隔監視手法が有効であることを示す。
論文 参考訳(メタデータ) (2020-05-24T11:37:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。