論文の概要: HCDN: A Change Detection Network for Construction Housekeeping Using Feature Fusion and Large Vision Models
- arxiv url: http://arxiv.org/abs/2410.17513v1
- Date: Wed, 23 Oct 2024 02:36:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:55:04.553532
- Title: HCDN: A Change Detection Network for Construction Housekeeping Using Feature Fusion and Large Vision Models
- Title(参考訳): HCDN: 特徴融合と大規模視覚モデルを用いた住宅維持のための変更検出ネットワーク
- Authors: Kailai Sun, Zherui Shao, Yang Miang Goh, Jing Tian, Vincent J. L. Gan,
- Abstract要約: 住宅の粗悪な管理は、建設事故に大きく貢献している。
AIとコンピュータビジョンの進歩にもかかわらず、ハウスキーピング環境の悪化を検出する既存の方法は、多くの課題に直面している。
本稿では,高度変化検出ニューラルネットワークであるHousekeeper Change Detection Network (HCDN)を提案する。
- 参考スコア(独自算出の注目度): 1.7090646100504552
- License:
- Abstract: Workplace safety has received increasing attention as millions of workers worldwide suffer from work-related accidents. Despite poor housekeeping is a significant contributor to construction accidents, there remains a significant lack of technological research focused on improving housekeeping practices in construction sites. Recognizing and locating poor housekeeping in a dynamic construction site is an important task that can be improved through computer vision approaches. Despite advances in AI and computer vision, existing methods for detecting poor housekeeping conditions face many challenges, including limited explanations, lack of locating of poor housekeeping, and lack of annotated datasets. On the other hand, change detection which aims to detect the changed environmental conditions (e.g., changing from good to poor housekeeping) and 'where' the change has occurred (e.g., location of objects causing poor housekeeping), has not been explored to the problem of housekeeping management. To address these challenges, we propose the Housekeeping Change Detection Network (HCDN), an advanced change detection neural network that integrates a feature fusion module and a large vision model, achieving state-of-the-art performance. Additionally, we introduce the approach to establish a novel change detection dataset (named Housekeeping-CCD) focused on housekeeping in construction sites, along with a housekeeping segmentation dataset. Our contributions include significant performance improvements compared to existing methods, providing an effective tool for enhancing construction housekeeping and safety. To promote further development, we share our source code and trained models for global researchers: https://github.com/NUS-DBE/Housekeeping-CD.
- Abstract(参考訳): 世界中の何百万人もの労働者が仕事関連の事故に遭い、職場の安全が注目されている。
住宅管理の貧弱さは建設事故に重大な貢献をしているものの、建設現場における住宅管理の実践改善に焦点をあてる技術研究の欠如が残されている。
動的建設現場における家計の貧弱さの認識と配置は,コンピュータビジョンのアプローチによって改善できる重要な課題である。
AIとコンピュータビジョンの進歩にもかかわらず、ハウスキーピングの状況を検出する既存の方法は、限定的な説明、ハウスキーピングの場所の欠如、注釈付きデータセットの欠如など、多くの課題に直面している。
一方, 住宅管理の課題に対して, 環境変化の検知を目的とした変化検出(例えば, 良質な住宅管理から劣悪な住宅管理への転換)や, 変化のあった場所(例えば, 粗悪な住宅管理の原因となる物の位置)が検討されていない。
これらの課題に対処するために,機能融合モジュールと大規模ビジョンモデルを統合し,最先端のパフォーマンスを実現する,高度な変更検出ニューラルネットワークであるHousekeeper Change Detection Network (HCDN)を提案する。
さらに,建築現場における住宅管理に着目した新しい変更検出データセット(Housekeeper-CCD)と,住宅管理セグメンテーションデータセットの確立について紹介する。
本研究は, 既設工法と比較して, 高い性能向上を図り, 住宅の維持と安全性向上に有効なツールを提供する。
さらなる開発を促進するため、私たちは、グローバル研究者のためにソースコードとトレーニングされたモデルを共有します。
関連論文リスト
- Variable-Agnostic Causal Exploration for Reinforcement Learning [56.52768265734155]
強化学習のための新しいフレームワークVACERL(Variable-Agnostic Causal Exploration for Reinforcement Learning)を導入する。
本手法は,注目機構を用いて,重要変数に関連する重要な観測行動ステップを自動的に同定する。
これらのステップを接続する因果グラフを構築し、エージェントをタスク完了に対する因果的影響の大きい観察-作用ペアへと導く。
論文 参考訳(メタデータ) (2024-07-17T09:45:27Z) - Zero-shot Degree of Ill-posedness Estimation for Active Small Object Change Detection [8.977792536037956]
日常的な屋内ナビゲーションでは、ロボットは区別できない小さな変化物体を検出する必要がある。
既存の技術は、変更検出モデルを正規化するために、高品質なクラス固有オブジェクトに依存している。
本研究では,受動とアクティブビジョンの両方を改善するために,DoIの概念を検討する。
論文 参考訳(メタデータ) (2024-05-10T01:56:39Z) - Change Guiding Network: Incorporating Change Prior to Guide Change Detection in Remote Sensing Imagery [6.5026098921977145]
本研究では,変化特徴の表現問題に対処するためにCGNet(Change Guiding Network)を設計する。
CGNetは、マルチスケール機能融合を導くために、リッチなセマンティック情報を持つ変更マップを生成する。
Change Guide Module (CGM) と呼ばれる自己保持モジュールは、画素間の長距離依存を効果的に捉えることができる。
論文 参考訳(メタデータ) (2024-04-14T08:09:33Z) - Lifelong Change Detection: Continuous Domain Adaptation for Small Object
Change Detection in Every Robot Navigation [5.8010446129208155]
地表面の視界変化検出は, 複雑な非線形視点投影と相まって, 視界の不確かさに悩まされる。
正規化のためには,手動で注釈付けされた高品質なオブジェクトクラス固有の先行手法が一般的である。
本手法は,日常のロボットナビゲーションにおいて検出される物体の変化を,将来的な変化検出タスクを改善するために,追加の事前として再利用できるという,強力で汎用的な考え方を採用する。
論文 参考訳(メタデータ) (2023-06-28T10:34:59Z) - Robust Change Detection Based on Neural Descriptor Fields [53.111397800478294]
我々は、部分的に重なり合う観測結果とノイズのある局所化結果に頑健なオブジェクトレベルのオンライン変化検出手法を開発した。
形状符号の類似性を利用して物体を連想させ, 局所的な物体近傍の空間配置を比較することにより, 観測重複や局所雑音に対する頑健性を示す。
論文 参考訳(メタデータ) (2022-08-01T17:45:36Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - BuildFormer: Automatic building extraction with vision transformer [7.577142111447444]
本稿では,超高解像度リモートセンシング画像,すなわちBuildFormerから建物を抽出するトランスフォーマーネットワークを提案する。
ResNetとの比較において,提案手法はWHU構築データセット上でmIoUの2%の改善を実現する。
論文 参考訳(メタデータ) (2021-11-29T11:23:52Z) - Few-shot Quality-Diversity Optimization [50.337225556491774]
品質多様性(QD)の最適化は、強化学習における知覚的最小値とスパース報酬を扱う上で効果的なツールであることが示されている。
本稿では,タスク分布の例から,パラメータ空間の最適化によって得られる経路の情報を利用して,未知の環境でQD手法を初期化する場合,数発の適応が可能であることを示す。
ロボット操作とナビゲーションベンチマークを用いて、疎密な報酬設定と密集した報酬設定の両方で実施された実験は、これらの環境でのQD最適化に必要な世代数を著しく削減することを示している。
論文 参考訳(メタデータ) (2021-09-14T17:12:20Z) - Task-related self-supervised learning for remote sensing image change
detection [8.831857715361624]
リモートセンシング画像の変更検出は,都市変化の検出,災害評価,その他の分野に広く適用されている。
既存のCNNベースの変更検出手法の多くは、まだ不十分な擬似変化抑制と不十分な特徴表現の問題に悩まされている。
本研究では,タスク関連自己監視学習変化検出ネットワークに基づく,スムーズなメカニズムによる教師なし変化検出手法を提案する。
論文 参考訳(メタデータ) (2021-05-11T11:44:04Z) - Robust Object Detection via Instance-Level Temporal Cycle Confusion [89.1027433760578]
物体検出器の分布外一般化を改善するための補助的自己監視タスクの有効性を検討する。
最大エントロピーの原理に触発されて,新しい自己監督タスクであるインスタンスレベル時間サイクル混乱(cycconf)を導入する。
それぞれのオブジェクトに対して、タスクは、ビデオ内の隣接するフレームで最も異なるオブジェクトの提案を見つけ、自己スーパービジョンのために自分自身にサイクルバックすることです。
論文 参考訳(メタデータ) (2021-04-16T21:35:08Z) - Progressive Self-Guided Loss for Salient Object Detection [102.35488902433896]
画像中の深層学習に基づくサラエント物体検出を容易にするプログレッシブ自己誘導損失関数を提案する。
我々のフレームワークは適応的に集約されたマルチスケール機能を利用して、健全な物体の探索と検出を効果的に行う。
論文 参考訳(メタデータ) (2021-01-07T07:33:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。