論文の概要: Improving Classification of Occluded Objects through Scene Context
- arxiv url: http://arxiv.org/abs/2510.26681v1
- Date: Thu, 30 Oct 2025 16:51:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.90857
- Title: Improving Classification of Occluded Objects through Scene Context
- Title(参考訳): シーンコンテキストによる付加物体の分類の改善
- Authors: Courtney M. King, Daniel D. Leeds, Damian Lyons, George Kalaitzis,
- Abstract要約: シーンコンテキストは、生物学的視覚における物体認識を助けることが知られている。
本研究では,既存の地域提案ネットワーク-深部畳み込みニューラルネットワーク(RPN-DCNN)オブジェクト検出ネットワークに2つの異なるシーンベース情報融合技術を用いてロバスト性を加えることを試みる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The presence of occlusions has provided substantial challenges to typically-powerful object recognition algorithms. Additional sources of information can be extremely valuable to reduce errors caused by occlusions. Scene context is known to aid in object recognition in biological vision. In this work, we attempt to add robustness into existing Region Proposal Network-Deep Convolutional Neural Network (RPN-DCNN) object detection networks through two distinct scene-based information fusion techniques. We present one algorithm under each methodology: the first operates prior to prediction, selecting a custom object network to use based on the identified background scene, and the second operates after detection, fusing scene knowledge into initial object scores output by the RPN. We demonstrate our algorithms on challenging datasets featuring partial occlusions, which show overall improvement in both recall and precision against baseline methods. In addition, our experiments contrast multiple training methodologies for occlusion handling, finding that training on a combination of both occluded and unoccluded images demonstrates an improvement over the others. Our method is interpretable and can easily be adapted to other datasets, offering many future directions for research and practical applications.
- Abstract(参考訳): オクルージョンの存在は、典型的には強力なオブジェクト認識アルゴリズムに重大な課題をもたらした。
追加の情報ソースは、閉塞によるエラーを減らすために非常に貴重である。
シーンコンテキストは、生物学的視覚における物体認識を助けることが知られている。
本研究では,既存の地域提案ネットワーク-深部畳み込みニューラルネットワーク(RPN-DCNN)オブジェクト検出ネットワークに2つの異なるシーンベース情報融合技術を用いてロバスト性を加えることを試みる。
1つは予測の前に動作し、識別された背景シーンに基づいて使用するカスタムオブジェクトネットワークを選択し、もう1つは検出後に動作し、シーン知識をRPNが出力する初期オブジェクトスコアに融合する。
我々は,部分閉塞を含む挑戦的データセットのアルゴリズムを実証し,ベースライン法に対するリコールと精度の両方を総合的に改善したことを示す。
さらに,オクルージョンハンドリングのための複数のトレーニング手法と対比し,オクルージョンド画像と非閉塞画像の組み合わせによるトレーニングが,他の2つよりも改善していることを示した。
本手法は解釈可能であり,他のデータセットにも容易に適用可能である。
関連論文リスト
- A Mutual Learning Method for Salient Object Detection with intertwined Multi-Supervision--Revised [67.61878540090116]
本稿では,有意な物体検出だけでなく,前景の輪郭検出やエッジ検出から,その監視を活用して,有意性検出ネットワークを訓練することを提案する。
まず,一様ハイライトの有向マップを生成するために,有向物体検出タスクと前景輪郭検出タスクを相互に活用する。
第2に、前景輪郭とエッジ検出タスクが同時にガイドされ、それによって正確な前景輪郭予測が行われ、エッジ予測のための局所ノイズが低減される。
論文 参考訳(メタデータ) (2025-09-21T22:30:32Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Deepfake Detection via Joint Unsupervised Reconstruction and Supervised
Classification [25.84902508816679]
本稿では,再建作業と分類作業を同時に行うディープフェイク検出手法を提案する。
この方法は、あるタスクによって学習された情報を他のタスクと共有する。
提案手法は,一般的に使用されている3つのデータセットに対して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-11-24T05:44:26Z) - Open-Set Object Detection Using Classification-free Object Proposal and
Instance-level Contrastive Learning [25.935629339091697]
オープンセットオブジェクト検出(OSOD)は、オブジェクトと背景分離、オープンセットオブジェクト分類という2つのサブタスクからなる問題を処理するための有望な方向である。
我々は,OSODの課題に対処するため,Openset RCNNを提案する。
我々のOpenset RCNNは、散らばった環境下でロボットの並べ替えタスクをサポートするオープンセットの知覚能力でロボットを支援できることを示します。
論文 参考訳(メタデータ) (2022-11-21T15:00:04Z) - Texture-guided Saliency Distilling for Unsupervised Salient Object
Detection [67.10779270290305]
本研究では, 簡便かつ高精度な塩分濃度の知識を抽出するUSOD法を提案する。
提案手法は,RGB,RGB-D,RGB-T,ビデオSODベンチマーク上での最先端USOD性能を実現する。
論文 参考訳(メタデータ) (2022-07-13T02:01:07Z) - CoDo: Contrastive Learning with Downstream Background Invariance for
Detection [10.608660802917214]
下流背景不変性(CoDo)を用いたコントラスト学習という,オブジェクトレベルの自己教師型学習手法を提案する。
プリテキストタスクは、さまざまなバックグラウンド、特に下流データセットのインスタンス位置モデリングに集中するように変換される。
MSCOCOの実験では、共通のバックボーンを持つCoDoであるResNet50-FPNが、オブジェクト検出に強力な転送学習結果をもたらすことを示した。
論文 参考訳(メタデータ) (2022-05-10T01:26:15Z) - Object Class Aware Video Anomaly Detection through Image Translation [1.2944868613449219]
本稿では、画像翻訳タスクを通して正常な外見と動きパターンを学習する2ストリームオブジェクト認識型VAD手法を提案する。
その結果,従来の手法の大幅な改善により,本手法による検出は完全に説明可能となり,異常はフレーム内で正確に局所化されることがわかった。
論文 参考訳(メタデータ) (2022-05-03T18:04:27Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - BiDet: An Efficient Binarized Object Detector [96.19708396510894]
本稿では,効率的な物体検出のためのバイナライズニューラルネットワークのBiDetを提案する。
我々のBiDetは、冗長除去による物体検出にバイナリニューラルネットワークの表現能力を完全に活用している。
我々の手法は、最先端のバイナリニューラルネットワークを大きなマージンで上回る。
論文 参考訳(メタデータ) (2020-03-09T08:16:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。