論文の概要: Cut-and-Paste with Precision: a Content and Perspective-aware Data Augmentation for Road Damage Detection
- arxiv url: http://arxiv.org/abs/2406.18586v2
- Date: Wed, 10 Jul 2024 09:24:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-11 20:50:12.990254
- Title: Cut-and-Paste with Precision: a Content and Perspective-aware Data Augmentation for Road Damage Detection
- Title(参考訳): 精度の高いカット・アンド・ペースト:道路損傷検出のための内容と視認性データ強化
- Authors: Punnawat Siripathitti, Florent Forest, Olga Fink,
- Abstract要約: 道路の損傷は、道路インフラの完全性、安全性、耐久性に重大な課題をもたらす可能性がある。
近年、道路監視アプリケーションにおいて、画像に基づく損傷検出のための様々なデータ駆動手法が研究されている。
本稿では、コンテンツ認識(すなわち、画像中の道路の真の位置を考える)と視点認識(すなわち、注入された損傷と対象画像との視点の差を考慮する)の両面から改善されたカット・アンド・ペースト増強手法を提案する。
- 参考スコア(独自算出の注目度): 5.939858158928473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Damage to road pavement can develop into cracks, potholes, spallings, and other issues posing significant challenges to the integrity, safety, and durability of the road structure. Detecting and monitoring the evolution of these damages is crucial for maintaining the condition and structural health of road infrastructure. In recent years, researchers have explored various data-driven methods for image-based damage detection in road monitoring applications. The field gained attention with the introduction of the Road Damage Detection Challenge (RDDC2018), encouraging competition in developing object detectors on street-view images from various countries. Leading teams have demonstrated the effectiveness of ensemble models, mostly based on the YOLO and Faster R-CNN series. Data augmentations have also shown benefits in object detection within the computer vision field, including transformations such as random flipping, cropping, cutting out patches, as well as cut-and-pasting object instances. Applying cut-and-paste augmentation to road damages appears to be a promising approach to increase data diversity. However, the standard cut-and-paste technique, which involves sampling an object instance from a random image and pasting it at a random location onto the target image, has demonstrated limited effectiveness for road damage detection. This method overlooks the location of the road and disregards the difference in perspective between the sampled damage and the target image, resulting in unrealistic augmented images. In this work, we propose an improved Cut-and-Paste augmentation technique that is both content-aware (i.e. considers the true location of the road in the image) and perspective-aware (i.e. takes into account the difference in perspective between the injected damage and the target image).
- Abstract(参考訳): 道路舗装の損傷は、亀裂、穴、スポーリングなどの問題に発展し、道路構造物の完全性、安全性、耐久性に重大な課題を生んでいる。
道路インフラストラクチャの状況と構造的健全性を維持するためには,これらの損傷の進化を検知し,監視することが不可欠である。
近年、道路監視アプリケーションにおいて、画像に基づく損傷検出のための様々なデータ駆動手法が研究されている。
道路被害検知チャレンジ(RDDC2018)の実施で注目され、様々な国のストリートビュー画像における物体検出装置の競争を奨励した。
リードチームは、主にYOLOとFaster R-CNNシリーズに基づいて、アンサンブルモデルの有効性を実証してきた。
データ拡張はまた、ランダムなフリップ、トリミング、パッチのカット、カット&ペーストのオブジェクトインスタンスなどの変換を含む、コンピュータビジョンフィールド内のオブジェクト検出のメリットも示している。
道路の損傷に対するカット・アンド・ペーストの適用は、データの多様性を高めるための有望なアプローチであるようだ。
しかし、ランダムな画像からオブジェクトのインスタンスをサンプリングし、対象画像にランダムな位置に貼り付ける標準的なカット・アンド・ペースト技術は、道路損傷検出に限られた効果を示した。
本手法は, 道路の位置を見落とし, サンプル画像と対象画像との視点差を無視し, 非現実的な拡張画像を生成する。
本研究では、コンテンツ認識(画像中の道路の真の位置を考慮)と視点認識(インジェクションされた損傷と対象画像の視点の違いを考慮)の両方を考慮したカット・アンド・ペースト向上手法を提案する。
関連論文リスト
- Semi-Truths: A Large-Scale Dataset of AI-Augmented Images for Evaluating Robustness of AI-Generated Image detectors [62.63467652611788]
実画像27,600枚、223,400枚、AI拡張画像1,472,700枚を含むSEMI-TRUTHSを紹介する。
それぞれの画像には、検出器のロバスト性の標準化と目標評価のためのメタデータが添付されている。
以上の結果から,現状の検出器は摂動の種類や程度,データ分布,拡張方法に様々な感度を示すことが示唆された。
論文 参考訳(メタデータ) (2024-11-12T01:17:27Z) - Visual Context-Aware Person Fall Detection [52.49277799455569]
画像中の個人とオブジェクトを半自動分離するセグメンテーションパイプラインを提案する。
ベッド、椅子、車椅子などの背景オブジェクトは、転倒検知システムに挑戦し、誤ったポジティブアラームを引き起こす。
トレーニング中のオブジェクト固有のコンテキスト変換が、この課題を効果的に軽減することを示す。
論文 参考訳(メタデータ) (2024-04-11T19:06:36Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - CarPatch: A Synthetic Benchmark for Radiance Field Evaluation on Vehicle
Components [77.33782775860028]
車両の新たな総合ベンチマークであるCarPatchを紹介する。
内在カメラパラメータと外在カメラパラメータを付加した画像のセットに加えて、各ビューに対して対応する深度マップとセマンティックセグメンテーションマスクが生成されている。
グローバルとパートベースのメトリクスは、いくつかの最先端技術を評価し、比較し、より良い特徴付けるために定義され、使われてきた。
論文 参考訳(メタデータ) (2023-07-24T11:59:07Z) - Spatio-Temporal Context Modeling for Road Obstacle Detection [12.464149169670735]
トレーニングデータのレイアウトを用いて、駆動シーンのデータ駆動コンテキスト時間モデルを構築する。
障害物は最先端のオブジェクト検出アルゴリズムによって検出され、結果は生成されたシーンと組み合わせられる。
論文 参考訳(メタデータ) (2023-01-19T07:06:35Z) - Road Damages Detection and Classification with YOLOv7 [0.0]
本研究は,Googleストリートビューを用いて道路被害データを収集,ラベル付けし,YOLOv7(You Only Look Once Version 7)を使用することを提案する。
提案手法は,クラウドセンシングによる道路被害検出チャレンジ (CRDDC2022, IEEE BigData 2022) に適用される。
論文 参考訳(メタデータ) (2022-10-31T18:55:58Z) - Perspective Aware Road Obstacle Detection [104.57322421897769]
道路障害物検出技術は,車間距離が大きくなるにつれて障害物の見かけの規模が減少するという事実を無視することを示す。
画像位置毎に仮想物体の見かけの大きさを符号化したスケールマップを演算することでこれを活用できる。
次に、この視点マップを利用して、遠近法に対応する大きさの道路合成物体に注入することで、トレーニングデータを生成する。
論文 参考訳(メタデータ) (2022-10-04T17:48:42Z) - TAD: A Large-Scale Benchmark for Traffic Accidents Detection from Video
Surveillance [2.1076255329439304]
既存の交通事故のデータセットは小規模で、監視カメラからではなく、オープンソースではない。
様々な次元による統合とアノテーションの後に,TADという大規模交通事故データセットが提案されている。
論文 参考訳(メタデータ) (2022-09-26T03:00:50Z) - Exploiting Playbacks in Unsupervised Domain Adaptation for 3D Object
Detection [55.12894776039135]
ディープラーニングに基づく最先端の3Dオブジェクト検出器は、有望な精度を示しているが、ドメインの慣用性に過度に適合する傾向がある。
対象領域の擬似ラベルの検出器を微調整することで,このギャップを大幅に削減する新たな学習手法を提案する。
5つの自律運転データセットにおいて、これらの擬似ラベル上の検出器を微調整することで、新しい運転環境への領域ギャップを大幅に減らすことを示す。
論文 参考訳(メタデータ) (2021-03-26T01:18:11Z) - Road surface detection and differentiation considering surface damages [0.0]
本研究では, 路面形状の変動を考慮した道路検出手法を提案し, 舗装面および未舗装面を同定し, 運転安全に関係のある他の道路面の損傷その他の情報を検出する。
この結果から,低コストカメラで撮影した画像を用いても,受動的視覚をこれらの目的に活用できることが示唆された。
論文 参考訳(メタデータ) (2020-06-23T23:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。