論文の概要: Detect-and-describe: Joint learning framework for detection and
description of objects
- arxiv url: http://arxiv.org/abs/2204.08828v1
- Date: Tue, 19 Apr 2022 11:57:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 14:23:59.974672
- Title: Detect-and-describe: Joint learning framework for detection and
description of objects
- Title(参考訳): 検出と記述:オブジェクトの検出と記述のための共同学習フレームワーク
- Authors: Addel Zafar, Umar Khalid
- Abstract要約: 我々は、オブジェクトを同時に検出し、それらの属性を推測する新しいアプローチを提案し、それを検出および記述(DaD)フレームワークと呼ぶ。
DaDはディープラーニングベースのアプローチであり、オブジェクト検出をオブジェクト属性予測にも拡張する。
我々は,aPascalテストセット上でのオブジェクト属性予測において,受信者動作特性曲線(AUC)の下で97.0%を達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional object detection answers two questions; "what" (what the object
is?) and "where" (where the object is?). "what" part of the object detection
can be fine-grained further i.e. "what type", "what shape" and "what material"
etc. This results in the shifting of the object detection tasks to the object
description paradigm. Describing an object provides additional detail that
enables us to understand the characteristics and attributes of the object
("plastic boat" not just boat, "glass bottle" not just bottle). This additional
information can implicitly be used to gain insight into unseen objects (e.g.
unknown object is "metallic", "has wheels"), which is not possible in
traditional object detection. In this paper, we present a new approach to
simultaneously detect objects and infer their attributes, we call it Detect and
Describe (DaD) framework. DaD is a deep learning-based approach that extends
object detection to object attribute prediction as well. We train our model on
aPascal train set and evaluate our approach on aPascal test set. We achieve
97.0% in Area Under the Receiver Operating Characteristic Curve (AUC) for
object attributes prediction on aPascal test set. We also show qualitative
results for object attribute prediction on unseen objects, which demonstrate
the effectiveness of our approach for describing unknown objects.
- Abstract(参考訳): 従来のオブジェクト検出では、"what"(オブジェクトとは何か?)と"where"(オブジェクトの場所)の2つの質問に答える。
オブジェクト検出の"what"部分は、"what type"、"what shape"、"what material"など、さらに詳細に説明することができます。
これにより、オブジェクト検出タスクがオブジェクト記述パラダイムにシフトする。
オブジェクトを記述することは、オブジェクトの特性と特性を理解するための追加の詳細を提供する("plastic boat" は単なるボートではなく、"glass bottle" であり、ボトルではない)。
この追加情報は、目に見えない物体(例えば、未知の物体は「金属」、ハスホイール」など)についての洞察を得るために暗黙的に使用できるが、従来の物体検出では不可能である。
本稿では,オブジェクトを同時に検出し,それらの属性を推測する新しいアプローチを提案する。
DaDはディープラーニングベースのアプローチであり、オブジェクト検出をオブジェクト属性予測にも拡張する。
我々は、aPascal の列車セットでモデルをトレーニングし、aPascal のテストセットでアプローチを評価します。
apascalテストセットにおける対象属性予測のための受信者動作特性曲線(auc)の下での面積97.0%を達成する。
また、未知のオブジェクトに対するオブジェクト属性予測の質的結果を示し、未知のオブジェクトを記述する手法の有効性を示す。
関連論文リスト
- Generative Region-Language Pretraining for Open-Ended Object Detection [55.42484781608621]
我々は,高密度物体を検出し,その名前を自由形式の方法で生成できるGenerateUというフレームワークを提案する。
本フレームワークはオープン語彙オブジェクト検出手法GLIPに匹敵する結果が得られる。
論文 参考訳(メタデータ) (2024-03-15T10:52:39Z) - Measuring the Impact of Scene Level Objects on Object Detection: Towards
Quantitative Explanations of Detection Decisions [1.6385815610837167]
本稿では,オブジェクト検出モデルのさらなる検証のための新しいブラックボックス説明可能性法を提案する。
テストデータ上のモデルの精度とシーンレベルのオブジェクトの有無を比較することで、モデルの性能に対するこれらのオブジェクトの貢献はより明確になる。
論文 参考訳(メタデータ) (2024-01-19T16:21:55Z) - SalienDet: A Saliency-based Feature Enhancement Algorithm for Object
Detection for Autonomous Driving [160.57870373052577]
未知の物体を検出するために,サリエンデット法(SalienDet)を提案する。
我々のSaienDetは、オブジェクトの提案生成のための画像機能を強化するために、サリエンシに基づくアルゴリズムを利用している。
オープンワールド検出を実現するためのトレーニングサンプルセットにおいて、未知のオブジェクトをすべてのオブジェクトと区別するためのデータセットレザベリングアプローチを設計する。
論文 参考訳(メタデータ) (2023-05-11T16:19:44Z) - DoUnseen: Tuning-Free Class-Adaptive Object Detection of Unseen Objects
for Robotic Grasping [1.6317061277457001]
我々は、微調整を必要としないオブジェクト検出器を開発し、オブジェクトのいくつかの画像をキャプチャすることで、任意のオブジェクトをクラスとして追加できる。
クラス適応型オブジェクト検出器を未知のデータセット上で評価し、それらのデータセット上で訓練されたMask R-CNNと比較する。
論文 参考訳(メタデータ) (2023-04-06T02:45:39Z) - Object Detection in Aerial Images with Uncertainty-Aware Graph Network [61.02591506040606]
本稿では,ノードとエッジがオブジェクトによって表現される構造化グラフを用いた,新しい不確実性を考慮したオブジェクト検出フレームワークを提案する。
我々は我々のモデルをオブジェクトDETection(UAGDet)のための不確実性対応グラフネットワークと呼ぶ。
論文 参考訳(メタデータ) (2022-08-23T07:29:03Z) - Automatic dataset generation for specific object detection [6.346581421948067]
本研究では,オブジェクトの詳細な特徴を,無関係な情報を得ることなく保存することができるオブジェクト・イン・シーン・イメージの合成手法を提案する。
その結果,合成画像では,物体の境界が背景とよく一致していることがわかった。
論文 参考訳(メタデータ) (2022-07-16T07:44:33Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Class-agnostic Object Detection [16.97782147401037]
本稿では,オブジェクトのクラスに関係なくオブジェクトを検出することに焦点を当てた新しい問題として,クラスに依存しないオブジェクト検出を提案する。
具体的には、イメージ内のすべてのオブジェクトのバウンディングボックスを予測することであり、オブジェクトクラスではない。
本稿では,この領域における今後の研究を進めるために,クラス非依存検出器のベンチマークのためのトレーニングおよび評価プロトコルを提案する。
論文 参考訳(メタデータ) (2020-11-28T19:22:38Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z) - Black-box Explanation of Object Detectors via Saliency Maps [66.745167677293]
対象検出器の予測のための視覚的説明を生成するD-RISEを提案する。
本稿では, YOLOv3などの1段検出器やFaster-RCNNのような2段検出器など, 異なる対象検出器に容易にD-RISEを適用可能であることを示す。
論文 参考訳(メタデータ) (2020-06-05T02:13:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。