論文の概要: Background Fades, Foreground Leads: Curriculum-Guided Background Pruning for Efficient Foreground-Centric Collaborative Perception
- arxiv url: http://arxiv.org/abs/2510.19250v1
- Date: Wed, 22 Oct 2025 05:10:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:15.133941
- Title: Background Fades, Foreground Leads: Curriculum-Guided Background Pruning for Efficient Foreground-Centric Collaborative Perception
- Title(参考訳): 前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭前頭
- Authors: Yuheng Wu, Xiangbo Gao, Quang Tau, Zhengzhong Tu, Dongman Lee,
- Abstract要約: 協調的知覚は、車両間で補完的な情報を共有することによって、自動運転車の信頼性と空間的カバレッジを高める。
そのため,近年の手法では前景中心のパラダイムを採用し,背景を捨てながら予測された前景領域の特徴のみを伝達している。
我々は、背景コンテキストをコンパクトなフォアグラウンド機能にカプセル化することで、この制限を克服するフォアグラウンド中心のフレームワークであるFadeLeadを提案する。
- 参考スコア(独自算出の注目度): 16.897387845255054
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collaborative perception enhances the reliability and spatial coverage of autonomous vehicles by sharing complementary information across vehicles, offering a promising solution to long-tail scenarios that challenge single-vehicle perception. However, the bandwidth constraints of vehicular networks make transmitting the entire feature map impractical. Recent methods, therefore, adopt a foreground-centric paradigm, transmitting only predicted foreground-region features while discarding the background, which encodes essential context. We propose FadeLead, a foreground-centric framework that overcomes this limitation by learning to encapsulate background context into compact foreground features during training. At the core of our design is a curricular learning strategy that leverages background cues early on but progressively prunes them away, forcing the model to internalize context into foreground representations without transmitting background itself. Extensive experiments on both simulated and real-world benchmarks show that FadeLead outperforms prior methods under different bandwidth settings, underscoring the effectiveness of context-enriched foreground sharing.
- Abstract(参考訳): 協調的な知覚は、車両間で補完的な情報を共有することによって、自動運転車の信頼性と空間的カバレッジを高め、単一車両の知覚に挑戦するロングテールシナリオに対する有望な解決策を提供する。
しかし、車載ネットワークの帯域幅制限により、全特徴マップを非現実的に送信する。
したがって、近年の手法は前景中心のパラダイムを採用し、予測された前景領域の特徴のみを伝達し、背景を破棄し、重要なコンテキストを符号化する。
トレーニング中に背景コンテキストをコンパクトなフォアグラウンド機能にカプセル化することで,この制限を克服する,フォアグラウンド中心のフレームワークであるFadeLeadを提案する。
私たちの設計の核となるのは、背景の手がかりを早期に活用するカリキュラム学習戦略であり、背景自体を伝達することなく、コンテキストを前景の表現に内在させることを強制する。
シミュレーションと実世界のベンチマークによる大規模な実験により、FadeLeadは、異なる帯域幅設定下で先行メソッドよりも優れており、文脈に富んだフォアグラウンド共有の有効性が強調されている。
関連論文リスト
- Background Matters Too: A Language-Enhanced Adversarial Framework for Person Re-Identification [1.409283414986451]
背景セマンティクスはReIDのフォアグラウンドセマンティクスと同じくらい重要であると我々は主張する。
本稿では,フォアグラウンドと背景情報を協調的にモデル化するエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-03T05:38:22Z) - Decouple before Align: Visual Disentanglement Enhances Prompt Tuning [85.91474962071452]
プロンプトチューニング(PT)は、視覚言語モデルのタスク固有の伝達性を改善する際、顕著な効果を示した。
本稿では,従来見過ごされていた情報非対称性の問題について述べる。
本稿では,直感的なデカプリアライン概念に基づく効果的なPTフレームワークであるDAPTを提案する。
論文 参考訳(メタデータ) (2025-08-01T07:46:00Z) - TALE: Training-free Cross-domain Image Composition via Adaptive Latent Manipulation and Energy-guided Optimization [59.412236435627094]
TALEは、テキストから画像への拡散モデルの生成機能を利用する、トレーニング不要のフレームワークである。
TALEにはAdaptive Latent ManipulationとEnergy-Guided Latent Optimizationという2つのメカニズムが備わっている。
本実験は,TALEが従来のベースラインを超え,画像誘導合成における最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-08-07T08:52:21Z) - What Happens Without Background? Constructing Foreground-Only Data for Fine-Grained Tasks [12.486263801451503]
きめ細かい認識は、サンプルに存在する識別情報に基づいて類似のサブクラスを区別することを目的としている。
一般的な方法は、しばしば背景に誤って焦点を合わせ、被写体から真に効果的な識別情報の取得を無視する。
本研究では,SAMとDeticの機能を活用して,前景のみの詳細なデータセットを作成するパイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-04T11:51:00Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - CLIP-Driven Fine-grained Text-Image Person Re-identification [50.94827165464813]
TIReIDは、候補画像のプールから与えられたテキストクエリに対応する画像を取得することを目的としている。
TIReIDにおけるCLIPの強力な知識をフル活用するための,CLIP駆動のきめ細かい情報抽出フレームワーク(CFine)を提案する。
論文 参考訳(メタデータ) (2022-10-19T03:43:12Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Contextual Interference Reduction by Selective Fine-Tuning of Neural
Networks [1.0152838128195465]
本研究では,不整合前景対象オブジェクト表現の干渉におけるコンテキストの役割について検討する。
私たちはボトムアップとトップダウンの処理パラダイムの恩恵を受けるフレームワークに取り組んでいます。
論文 参考訳(メタデータ) (2020-11-21T20:11:12Z) - Deep Semantic Matching with Foreground Detection and Cycle-Consistency [103.22976097225457]
深層ネットワークに基づく弱い教師付きセマンティックマッチングに対処する。
本研究では,背景乱れの影響を抑えるために,前景領域を明示的に推定する。
複数の画像にまたがって予測変換を強制し、幾何的に可視かつ一貫したサイクル一貫性の損失を発生させる。
論文 参考訳(メタデータ) (2020-03-31T22:38:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。