論文の概要: PaveSync: A Unified and Comprehensive Dataset for Pavement Distress Analysis and Classification
- arxiv url: http://arxiv.org/abs/2512.20011v1
- Date: Tue, 23 Dec 2025 03:09:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.727986
- Title: PaveSync: A Unified and Comprehensive Dataset for Pavement Distress Analysis and Classification
- Title(参考訳): PaveSync: 舗装距離分析と分類のための統一的で総合的なデータセット
- Authors: Blessing Agyei Kyem, Joshua Kofi Asamoah, Anthony Dontoh, Andrews Danyo, Eugene Denteh, Armstrong Aboah,
- Abstract要約: このデータセットは、利用可能な複数のソースを7カ国の52747イメージの標準化されたコレクションに統合する。
データセットは、画像の品質、解像度、視角、気象条件の幅広い実世界の変動をキャプチャする。
クラス定義とアノテーションフォーマットの標準化により、このデータセットは、舗装欠陥検出のための最初のグローバルな代表的ベンチマークを提供する。
- 参考スコア(独自算出の注目度): 6.008579402374725
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated pavement defect detection often struggles to generalize across diverse real-world conditions due to the lack of standardized datasets. Existing datasets differ in annotation styles, distress type definitions, and formats, limiting their integration for unified training. To address this gap, we introduce a comprehensive benchmark dataset that consolidates multiple publicly available sources into a standardized collection of 52747 images from seven countries, with 135277 bounding box annotations covering 13 distinct distress types. The dataset captures broad real-world variation in image quality, resolution, viewing angles, and weather conditions, offering a unique resource for consistent training and evaluation. Its effectiveness was demonstrated through benchmarking with state-of-the-art object detection models including YOLOv8-YOLOv12, Faster R-CNN, and DETR, which achieved competitive performance across diverse scenarios. By standardizing class definitions and annotation formats, this dataset provides the first globally representative benchmark for pavement defect detection and enables fair comparison of models, including zero-shot transfer to new environments.
- Abstract(参考訳): 自動舗装欠陥検出は、標準化されたデータセットの欠如により、様々な現実世界の条件をまたいだ一般化に苦慮することが多い。
既存のデータセットはアノテーションスタイル、苦難タイプ定義、フォーマットによって異なり、統合トレーニングへの統合が制限されている。
このギャップに対処するため、我々は、複数の公開されているソースを7カ国の52747イメージの標準化されたコレクションに統合する包括的なベンチマークデータセットを導入しました。
このデータセットは、画像の品質、解像度、視角、気象条件の幅広い実世界の変動を捉え、一貫したトレーニングと評価のためのユニークなリソースを提供する。
その効果は、YOLOv8-YOLOv12、Faster R-CNN、DETRといった最先端のオブジェクト検出モデルとベンチマークすることで実証された。
クラス定義とアノテーションフォーマットの標準化により、このデータセットは、舗装欠陥検出のための最初のグローバルな代表的ベンチマークを提供し、新しい環境へのゼロショット転送を含むモデルの公正な比較を可能にする。
関連論文リスト
- CLIP Meets Diffusion: A Synergistic Approach to Anomaly Detection [49.11819337853632]
異常検出は、異常の定義の曖昧さ、異常型の多様性、トレーニングデータの不足による複雑な問題である。
識別的基盤モデルと生成的基礎モデルの両方を活用するCLIPfusionを提案する。
本手法は, 異常検出の多面的課題に対処する上で, マルチモーダル・マルチモデル融合の有効性を裏付けるものである。
論文 参考訳(メタデータ) (2025-06-13T13:30:15Z) - Benchmark Granularity and Model Robustness for Image-Text Retrieval [44.045767657945895]
データセットの粒度とクエリの摂動が検索性能とロバスト性にどのように影響するかを示す。
よりリッチなキャプションは、特にテキスト・ツー・イメージタスクにおいて、検索を継続的に強化することを示す。
本研究は, モデル頑健性の変化とキャプション粒度と感度摂動のデータセット依存的関係に着目した。
論文 参考訳(メタデータ) (2024-07-21T18:08:44Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Concept Drift and Long-Tailed Distribution in Fine-Grained Visual Categorization: Benchmark and Method [84.68818879525568]
コンセプションドリフトとLong-Tailed Distributionデータセットを提案する。
インスタンスの特徴は時間によって異なり、長い尾の分布を示す傾向がある。
本稿ではCDLTに関連する学習課題に対処する機能組換えフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-04T12:42:45Z) - On Generalization in Coreference Resolution [66.05112218880907]
モデルの市販性能を評価するため、異なるドメインを対象とした8つのコア参照解決データセットを統合する。
次に、それらのドメイン、アノテーションガイドライン、メタデータが異なるにもかかわらず、トレーニングのために3つのデータセットを混ぜて、単一のモデルを共同でトレーニングする方法を提案する。
ゼロショット環境では、単一のデータセット転送でトレーニングされたモデルが不十分であるのに対して、共同トレーニングの成果によって全体的なパフォーマンスが改善されていることが分かりました。
論文 参考訳(メタデータ) (2021-09-20T16:33:22Z) - Generalized Focal Loss: Learning Qualified and Distributed Bounding
Boxes for Dense Object Detection [85.53263670166304]
一段検出器は基本的に、物体検出を密度の高い分類と位置化として定式化する。
1段検出器の最近の傾向は、局所化の質を推定するために個別の予測分岐を導入することである。
本稿では, 上記の3つの基本要素, 品質推定, 分類, ローカライゼーションについて述べる。
論文 参考訳(メタデータ) (2020-06-08T07:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。