論文の概要: Going Deeper into Recognizing Actions in Dark Environments: A
Comprehensive Benchmark Study
- arxiv url: http://arxiv.org/abs/2202.09545v3
- Date: Mon, 30 Oct 2023 17:11:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 05:09:47.659070
- Title: Going Deeper into Recognizing Actions in Dark Environments: A
Comprehensive Benchmark Study
- Title(参考訳): 暗黒環境における行動認識の深化:包括的ベンチマーク研究
- Authors: Yuecong Xu, Jianfei Yang, Haozhi Cao, Jianxiong Yin, Zhenghua Chen,
Xiaoli Li, Zhengguo Li, Qianwen Xu
- Abstract要約: 暗黒環境における行動認識は、夜間の監視や自律運転といった分野に適用することができる。
夜間の監視や自動運転といった分野に適用可能な暗黒環境における行動認識の課題に焦点をあてる。
UG2+ Challenge Track 2 (UG2-2) をIEEE CVPR 2021でローンチし、暗黒環境でのARモデルの堅牢性の評価と向上を目的としている。
- 参考スコア(独自算出の注目度): 35.53075596912581
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: While action recognition (AR) has gained large improvements with the
introduction of large-scale video datasets and the development of deep neural
networks, AR models robust to challenging environments in real-world scenarios
are still under-explored. We focus on the task of action recognition in dark
environments, which can be applied to fields such as surveillance and
autonomous driving at night. Intuitively, current deep networks along with
visual enhancement techniques should be able to handle AR in dark environments,
however, it is observed that this is not always the case in practice. To dive
deeper into exploring solutions for AR in dark environments, we launched the
UG2+ Challenge Track 2 (UG2-2) in IEEE CVPR 2021, with a goal of evaluating and
advancing the robustness of AR models in dark environments. The challenge
builds and expands on top of a novel ARID dataset, the first dataset for the
task of dark video AR, and guides models to tackle such a task in both fully
and semi-supervised manners. Baseline results utilizing current AR models and
enhancement methods are reported, justifying the challenging nature of this
task with substantial room for improvements. Thanks to the active participation
from the research community, notable advances have been made in participants'
solutions, while analysis of these solutions helped better identify possible
directions to tackle the challenge of AR in dark environments.
- Abstract(参考訳): 大規模なビデオデータセットの導入とディープニューラルネットワークの開発により、アクション認識(AR)は大幅に改善されているが、現実のシナリオにおける挑戦的な環境に対して堅牢なARモデルは、まだ探索されていない。
我々は,暗環境における行動認識の課題に注目し,監視や夜間の自律運転といった分野に適用できる。
直感的には、現在のディープネットワークとビジュアルエンハンスメント技術は、暗い環境でarを扱えるべきであるが、実際には必ずしもそうではないことが観察されている。
ダーク環境でarのソリューションを探求するために、私たちは、暗い環境におけるarモデルの堅牢性の評価と向上を目的として、ieee cvpr 2021でug2+ challenge track 2(ug2-2)を立ち上げました。
この課題は、ダークビデオarのタスクのための最初のデータセットであるaridデータセットの上に構築され、拡張し、完全かつ半監督された方法でそのようなタスクに取り組むためのモデルをガイドする。
現在のARモデルと拡張手法を利用したベースライン結果が報告され、このタスクの難易度を改善の余地で正当化する。
研究コミュニティからの積極的な参加により、参加者のソリューションに顕著な進歩が見られ、一方、これらのソリューションの分析は、暗黒環境におけるARの課題に取り組むための可能な方向の特定に役立っている。
関連論文リスト
- Foundation Models for Remote Sensing and Earth Observation: A Survey [101.77425018347557]
本調査は、リモートセンシング基礎モデル(RSFM)の新しい分野を体系的にレビューする。
モチベーションと背景の概要から始まり、続いて基本概念が導入された。
我々はこれらのモデルを公開データセットと比較し、既存の課題について議論し、今後の研究方向性を提案する。
論文 参考訳(メタデータ) (2024-10-22T01:08:21Z) - QueensCAMP: an RGB-D dataset for robust Visual SLAM [0.0]
本稿では,VSLAMシステムのロバスト性を評価するために設計された新しいRGB-Dデータセットを提案する。
データセットは、動的オブジェクト、動きのぼかし、様々な照明を備えた現実世界の屋内シーンで構成されている。
我々は、任意の画像にカメラ障害を注入するためのオープンソースのスクリプトを提供し、さらなるカスタマイズを可能にします。
論文 参考訳(メタデータ) (2024-10-16T12:58:08Z) - Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Outdoor Environment Reconstruction with Deep Learning on Radio
Propagation Paths [5.030571576007511]
本稿では,屋外環境再建のための環境無線信号を利用した新しいアプローチを提案する。
無線周波数(RF)データを解析することにより,環境特性を推定し,屋外環境をデジタル的に再構築することを目的とする。
2つのDL駆動アプローチが評価され、交差対ユニオン(IoU)、ハウスドルフ距離、シャンファー距離などの指標を用いて性能が評価される。
論文 参考訳(メタデータ) (2024-02-27T09:11:10Z) - Mobile AR Depth Estimation: Challenges & Prospects -- Extended Version [12.887748044339913]
モバイルARにおける正確な距離深度推定を実現するための課題と機会について検討する。
新たに導入されたデータセット(ARKitScenes)上で,最先端のモノクル深度推定モデル4種を試験した。
私たちの研究は、これらの課題を探求し解決するための将来的な方向性を提供します。
論文 参考訳(メタデータ) (2023-10-22T22:47:51Z) - Egocentric RGB+Depth Action Recognition in Industry-Like Settings [50.38638300332429]
本研究は,産業的な環境下での自我中心のRGBとDepthモダリティからの行動の認識に焦点を当てる。
我々のフレームワークは、RGBとDepthの両方のモダリティを効果的に符号化する3DビデオSWIN変換器に基づいている。
また,ICIAP 2023におけるマルチモーダル動作認識チャレンジにおいて,本手法が第1位を確保した。
論文 参考訳(メタデータ) (2023-09-25T08:56:22Z) - Computation-efficient Deep Learning for Computer Vision: A Survey [121.84121397440337]
ディープラーニングモデルは、さまざまな視覚的知覚タスクにおいて、人間レベルのパフォーマンスに到達または超えた。
ディープラーニングモデルは通常、重要な計算資源を必要とし、現実のシナリオでは非現実的な電力消費、遅延、または二酸化炭素排出量につながる。
新しい研究の焦点は計算効率のよいディープラーニングであり、推論時の計算コストを最小限に抑えつつ、良好な性能を達成することを目指している。
論文 参考訳(メタデータ) (2023-08-27T03:55:28Z) - UDTIRI: An Online Open-Source Intelligent Road Inspection Benchmark
Suite [21.565438268381467]
このベンチマークスイートで公開された最初のオンラインコンペである道路穴検出タスクを紹介します。
我々のベンチマークは、最先端のオブジェクト検出、セマンティックセグメンテーション、インスタンスセグメンテーションネットワークの体系的かつ徹底的な評価を提供する。
多様な道路条件をより包括的に理解したアルゴリズムを提供することで、未解決の可能性を解き明かそうとしている。
論文 参考訳(メタデータ) (2023-04-18T09:13:52Z) - Meta-UDA: Unsupervised Domain Adaptive Thermal Object Detection using
Meta-Learning [64.92447072894055]
赤外線(IR)カメラは、照明条件や照明条件が悪ければ頑丈である。
既存のUDA手法を改善するためのアルゴリズムメタ学習フレームワークを提案する。
KAISTおよびDSIACデータセットのための最先端熱検出器を作成した。
論文 参考訳(メタデータ) (2021-10-07T02:28:18Z) - A Vision Based Deep Reinforcement Learning Algorithm for UAV Obstacle
Avoidance [1.2693545159861856]
UAV障害物回避のための探索を改善するための2つの技術を紹介します。
ひとつは収束に基づくアプローチで、探索されていない動作と時間しきい値を反復して探索と搾取のバランスをとる。
2つ目は、ガウス混合分布を用いて予測された次の状態と比較し、次のアクションを選択するためのガイダンスベースアプローチである。
論文 参考訳(メタデータ) (2021-03-11T01:15:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。