論文の概要: High Efficiency Pedestrian Crossing Prediction
- arxiv url: http://arxiv.org/abs/2204.01862v1
- Date: Mon, 4 Apr 2022 21:37:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 13:35:45.865594
- Title: High Efficiency Pedestrian Crossing Prediction
- Title(参考訳): 高効率歩行者交叉予測
- Authors: Zhuoran Zeng
- Abstract要約: 歩行者の横断意図を予測する最先端の手法は、入力として複数の情報ストリームに依存することが多い。
入力には歩行者のフレームのみのネットワークを導入する。
実験は、我々のモデルが常に優れたパフォーマンスを提供することを検証します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting pedestrian crossing intention is an indispensable aspect of
deploying advanced driving systems (ADS) or advanced driver-assistance systems
(ADAS) to real life. State-of-the-art methods in predicting pedestrian crossing
intention often rely on multiple streams of information as inputs, each of
which requires massive computational resources and heavy network architectures
to generate. However, such reliance limits the practical application of the
systems. In this paper, driven the the real-world demands of pedestrian
crossing intention prediction models with both high efficiency and accuracy, we
introduce a network with only frames of pedestrians as the input. Every
component in the introduced network is driven by the goal of light weight.
Specifically, we reduce the multi-source input dependency and employ light
neural networks that are tailored for mobile devices. These smaller neural
networks can fit into computer memory and can be transmitted over a computer
network more easily, thus making them more suitable for real-life deployment
and real-time prediction. To compensate the removal of the multi-source input,
we enhance the network effectiveness by adopting a multi-task learning
training, named "side task learning", to include multiple auxiliary tasks to
jointly learn the feature extractor for improved robustness. Each head handles
a specific task that potentially shares knowledge with other heads. In the
meantime, the feature extractor is shared across all tasks to ensure the
sharing of basic knowledge across all layers. The light weight but high
efficiency characteristics of our model endow it the potential of being
deployed on vehicle-based systems. Experiments validate that our model
consistently delivers outstanding performances.
- Abstract(参考訳): ADS(Advanced driving system)やADAS(Advanced driver-assistance system)を実生活に展開する上で、歩行者横断意図の予測は不可欠である。
歩行者横断の意図を予測する最先端の手法は、入力として複数の情報ストリームに依存することが多く、それぞれが大量の計算資源と重いネットワークアーキテクチャを生成する必要がある。
しかし、そのような信頼はシステムの実用的適用を制限する。
本稿では,歩行者のフレームのみを入力として,歩行者横断意図予測モデルの現実世界の要求を高い効率と正確性で駆動するネットワークを提案する。
導入されたネットワークのすべてのコンポーネントは、軽量の目標によって駆動される。
具体的には、マルチソース入力依存を減らし、モバイルデバイスに適した軽量ニューラルネットワークを採用する。
これらの小さなニューラルネットワークはコンピュータメモリに適合し、コンピュータネットワークを介してより簡単に送信できるため、実際のデプロイメントやリアルタイム予測に適しています。
マルチソース入力の除去を補うために,「サイドタスク学習」と呼ばれるマルチタスク学習を取り入れ,ロバスト性を改善するために機能抽出器を共同で学習する補助タスクを複数含むことにより,ネットワークの有効性を高める。
各ヘッドは、他のヘッドと知識を共有する可能性のある特定のタスクを処理する。
一方、機能抽出子はすべてのタスクで共有され、すべてのレイヤで基本的な知識の共有が保証される。
軽量かつ高効率な車載システムの特性は,車載システムへの展開の可能性を秘めている。
実験は、我々のモデルが常に優れたパフォーマンスを提供することを示す。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - Task-Attentive Transformer Architecture for Continual Learning of
Vision-and-Language Tasks Using Knowledge Distillation [18.345183818638475]
連続学習(CL)は、逐次到着するタスク間で知識伝達を可能にすることで、治療の役割を果たす。
バイモーダル・ビジョン・アンド・ランゲージ・タスクを学習するためのトランスフォーマーベースのCLアーキテクチャを開発した。
私たちのアプローチは、メモリと時間のオーバーヘッドが少ないため、多数のタスクにスケーラブルに学習するものです。
論文 参考訳(メタデータ) (2023-03-25T10:16:53Z) - Machine Learning for QoS Prediction in Vehicular Communication:
Challenges and Solution Approaches [46.52224306624461]
最大スループット予測の強化,例えばストリーミングや高精細マッピングアプリケーションについて検討する。
収集したデータの基盤となる特性をよりよく理解することで、マシンラーニング技術上に信頼性を構築することができるかを強調します。
我々は、説明可能なAIを使用して、機械学習が明示的にプログラムされることなく、無線ネットワークの基本原理を学習できることを示す。
論文 参考訳(メタデータ) (2023-02-23T12:29:20Z) - A Lightweight, Efficient and Explainable-by-Design Convolutional Neural
Network for Internet Traffic Classification [9.365794791156972]
本稿では、インターネットトラフィック分類のための新しい軽量・効率的・eXplainable-by-design畳み込みニューラルネットワーク(LEXNet)を提案する。
LEXNetは(軽量で効率の良い目的のために)新しい残留ブロックと(説明可能性のために)プロトタイプ層に依存している。
商用グレードのデータセットに基づいて、LEXNetは最先端のニューラルネットワークと同じ精度を維持することに成功した。
論文 参考訳(メタデータ) (2022-02-11T10:21:34Z) - Routing with Self-Attention for Multimodal Capsule Networks [108.85007719132618]
我々は,カプセルの強度をマルチモーダル学習フレームワークの文脈で活用できる,新しいマルチモーダルカプセルネットワークを提案する。
カプセルを大規模入力データに適応させるために, カプセルを選択する自己保持機構による新たなルーティングを提案する。
これにより、ノイズの多いビデオデータによる堅牢なトレーニングだけでなく、従来のルーティング方法と比較してカプセルネットワークのサイズを拡大することが可能になる。
論文 参考訳(メタデータ) (2021-12-01T19:01:26Z) - Multi-modal Experts Network for Autonomous Driving [16.587968446342995]
センサデータからエンドツーエンドの学習は、自動運転の有望な結果を示している。
このようなネットワークをトレーニングし、デプロイすることは困難であり、考慮された環境では少なくとも2つの問題に直面している。
本稿では,新しいマルチモーダル・エキスパート・ネットワーク・アーキテクチャを提案し,マルチステージ・トレーニング手法を提案する。
論文 参考訳(メタデータ) (2020-09-18T14:54:54Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z) - Firearm Detection and Segmentation Using an Ensemble of Semantic Neural
Networks [62.997667081978825]
本稿では,意味的畳み込みニューラルネットワークのアンサンブルに基づく兵器検出システムを提案する。
特定のタスクに特化した単純なニューラルネットワークのセットは、計算リソースを少なくし、並列にトレーニングすることができる。
個々のネットワークの出力の集約によって与えられるシステムの全体的な出力は、ユーザが偽陽性と偽陰性とをトレードオフするように調整することができる。
論文 参考訳(メタデータ) (2020-02-11T13:58:16Z) - NeurAll: Towards a Unified Visual Perception Model for Automated Driving [8.49826472556323]
本稿では,複数のタスクを同時に学習するためのマルチタスクネットワーク設計を提案する。
自動運転システムの主なボトルネックは、デプロイメントハードウェアで利用可能な限られた処理能力である。
論文 参考訳(メタデータ) (2019-02-10T12:45:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。