論文の概要: Efficient Cross-Country Data Acquisition Strategy for ADAS via Street-View Imagery
- arxiv url: http://arxiv.org/abs/2602.01836v1
- Date: Mon, 02 Feb 2026 09:09:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.025113
- Title: Efficient Cross-Country Data Acquisition Strategy for ADAS via Street-View Imagery
- Title(参考訳): ストリートビュー画像によるADASの効率的なクロスカウンタリーデータ取得戦略
- Authors: Yin Wu, Daniel Slieter, Carl Esselborn, Ahmed Abouelazm, Tsung Yuan Tseng, J. Marius Zöllner,
- Abstract要約: 我々は、公開画像を利用して興味ある場所(POI)を特定するストリートビュー誘導型データ取得戦略を提案する。
信号場外見におけるクロスカントリー変動に特に敏感なタスクである交通信号検出実験は,本手法がランダムサンプリングに匹敵する性能を実現することを示す。
これらの結果は,効率的かつ費用対効果の高いクロスカントリーモデル適応のためのストリートビュー誘導型データ取得の可能性を強調した。
- 参考スコア(独自算出の注目度): 9.47955022914982
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deploying ADAS and ADS across countries remains challenging due to differences in legislation, traffic infrastructure, and visual conventions, which introduce domain shifts that degrade perception performance. Traditional cross-country data collection relies on extensive on-road driving, making it costly and inefficient to identify representative locations. To address this, we propose a street-view-guided data acquisition strategy that leverages publicly available imagery to identify places of interest (POI). Two POI scoring methods are introduced: a KNN-based feature distance approach using a vision foundation model, and a visual-attribution approach using a vision-language model. To enable repeatable evaluation, we adopt a collect-detect protocol and construct a co-located dataset by pairing the Zenseact Open Dataset with Mapillary street-view images. Experiments on traffic sign detection, a task particularly sensitive to cross-country variations in sign appearance, show that our approach achieves performance comparable to random sampling while using only half of the target-domain data. We further provide cost estimations for full-country analysis, demonstrating that large-scale street-view processing remains economically feasible. These results highlight the potential of street-view-guided data acquisition for efficient and cost-effective cross-country model adaptation.
- Abstract(参考訳): ADASとADSを各国に展開することは、法律、交通インフラ、視覚的慣行の違いにより依然として困難であり、認識性能を低下させるドメインシフトが導入されている。
伝統的なクロスカントリーデータ収集は広範な道路運転に依存しており、代表地点を特定するのに費用がかかり非効率である。
そこで我々は,公開画像を利用して興味のある場所(POI)を識別するストリートビュー誘導型データ取得戦略を提案する。
視覚基礎モデルを用いたKNNに基づく特徴距離アプローチと視覚言語モデルを用いた視覚属性アプローチの2つのPOIスコアリング手法が導入された。
繰り返し評価を可能にするために,我々は,Zenseact Open DatasetとMapillary Street-viewイメージをペアにすることで,収集検出プロトコルを採用し,コロケーションデータセットを構築した。
交通信号の検出実験は,信号の出現頻度に特に敏感なタスクであり,目標領域データの半分しか使用せず,ランダムサンプリングに匹敵する性能を発揮することを示す。
さらに,大規模な街路ビュー処理が経済的に実現可能であることを実証し,全国分析のコスト見積を行う。
これらの結果は,効率的かつ費用対効果の高いクロスカントリーモデル適応のためのストリートビュー誘導型データ取得の可能性を強調した。
関連論文リスト
- Efficient Data Representation for Motion Forecasting: A Scene-Specific Trajectory Set Approach [12.335528093380631]
本研究では,異なる状況に合わせたシーン固有の軌跡セットを生成するための新しい手法を提案する。
決定論的ゴールサンプリングアルゴリズムは関連する地図領域を同定する一方,再帰的分布サブサンプリング (RIDS) 法はトラジェクトリの妥当性を高める。
Argoverse 2データセットの実験では、運転エリアコンプライアンスの最大10%の改善が達成されている。
論文 参考訳(メタデータ) (2024-07-30T11:06:39Z) - Fusing Pseudo Labels with Weak Supervision for Dynamic Traffic Scenarios [0.0]
我々は、異種データセットで訓練されたオブジェクト検出モデルから擬似ラベルをアマルガメートする弱い教師付きラベル統一パイプラインを導入する。
我々のパイプラインは、異なるデータセットからのラベルの集約、バイアスの修正、一般化の強化を通じて、統一されたラベル空間をエンゲージする。
我々は,統合ラベル空間を用いた単独物体検出モデルを再学習し,動的交通シナリオに精通した弾力性のあるモデルを構築した。
論文 参考訳(メタデータ) (2023-08-30T11:33:07Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - Cross-View Visual Geo-Localization for Outdoor Augmented Reality [11.214903134756888]
地上画像のクロスビューマッチングによる測地位置推定の課題をジオレファレンス衛星画像データベースに解決する。
本稿では,新しいトランスフォーマーニューラルネットワークモデルを提案する。
いくつかのベンチマーク・クロスビュー・ジオローカライズ・データセットの実験により、我々のモデルが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-03-28T01:58:03Z) - Robust Self-Tuning Data Association for Geo-Referencing Using Lane Markings [44.4879068879732]
本稿では,データアソシエーションにおけるあいまいさを解消するための完全なパイプラインを提案する。
その中核は、測定のエントロピーに応じて探索領域に適応する堅牢な自己調整データアソシエーションである。
ドイツ・カールスルーエ市周辺の都市・農村のシナリオを実データとして評価した。
論文 参考訳(メタデータ) (2022-07-28T12:29:39Z) - Aerial Images Meet Crowdsourced Trajectories: A New Approach to Robust
Road Extraction [110.61383502442598]
我々は、Cross-Modal Message Propagation Network (CMMPNet)と呼ばれる新しいニューラルネットワークフレームワークを紹介する。
CMMPNetは、モダリティ固有の表現学習のための2つのディープオートエンコーダと、クロスモーダル表現洗練のためのテーラー設計のデュアルエンハンスメントモジュールで構成されている。
実世界の3つのベンチマーク実験により, CMMPNetによる堅牢な道路抽出の有効性が示された。
論文 参考訳(メタデータ) (2021-11-30T04:30:10Z) - Divide-and-Conquer for Lane-Aware Diverse Trajectory Prediction [71.97877759413272]
軌道予測は、自動運転車が行動を計画し実行するための安全クリティカルなツールです。
近年の手法は,WTAやベスト・オブ・マニーといったマルチコース学習の目標を用いて,強力なパフォーマンスを実現している。
我々の研究は、軌道予測、学習出力、そして運転知識を使って制約を課すことによるより良い予測における2つの重要な課題に対処する。
論文 参考訳(メタデータ) (2021-04-16T17:58:56Z) - TraND: Transferable Neighborhood Discovery for Unsupervised Cross-domain
Gait Recognition [77.77786072373942]
本稿では、教師なしクロスドメイン歩行認識のための領域ギャップを橋渡しするTransferable Neighborhood Discovery (TraND) フレームワークを提案する。
我々は、潜在空間におけるラベルなしサンプルの自信ある近傍を自動的に発見するために、エンドツーエンドのトレーニング可能なアプローチを設計する。
提案手法は,CASIA-BとOU-LPの2つの公開データセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-02-09T03:07:07Z) - Predicting Livelihood Indicators from Community-Generated Street-Level
Imagery [70.5081240396352]
本稿では,クラウドソースによるストリートレベルの画像から重要な生活指標を予測するための,安価でスケーラブルで解釈可能なアプローチを提案する。
全国的に代表される世帯調査で収集した地上データと比較することにより,貧困,人口,健康の指標を正確に予測する上でのアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2020-06-15T18:12:12Z) - Pedestrian Action Anticipation using Contextual Feature Fusion in
Stacked RNNs [19.13270454742958]
交差点における歩行者行動予測問題の解法を提案する。
提案手法では,シーン動的・視覚的特徴の両面から収集した情報を徐々にネットワークに融合する新しいRNNアーキテクチャを用いる。
論文 参考訳(メタデータ) (2020-05-13T20:59:37Z) - Domain Adaptive Transfer Attack (DATA)-based Segmentation Networks for
Building Extraction from Aerial Images [3.786567767772753]
本稿では,航空画像から抽出するドメイン適応トランスファー攻撃方式に基づくセグメンテーションネットワークを提案する。
提案システムは,ドメイン転送と敵攻撃の概念を組み合わせたシステムである。
3つの異なるデータセットに対して、データセット間の実験とアブレーション実験を行った。
論文 参考訳(メタデータ) (2020-04-11T06:17:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。