論文の概要: IndGIC: Supervised Action Recognition under Low Illumination
- arxiv url: http://arxiv.org/abs/2308.15345v1
- Date: Tue, 29 Aug 2023 14:41:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 13:43:51.822042
- Title: IndGIC: Supervised Action Recognition under Low Illumination
- Title(参考訳): IndGIC:低照度下での行動認識
- Authors: Jingbo Zeng
- Abstract要約: 深層多入力ネットワークを用いた行動認識手法を提案する。
Ind-GICは低照度映像の高精細化のために提案され、1フレームに1ガンマを発生させ、高精細化性能を向上する。
実験結果から,本モデルはARIDデータセットの精度が高いことがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Technologies of human action recognition in the dark are gaining more and
more attention as huge demand in surveillance, motion control and
human-computer interaction. However, because of limitation in image enhancement
method and low-lighting video datasets, e.g. labeling cost, existing methods
meet some problems. Some video-based approached are effect and efficient in
specific datasets but cannot generalize to most cases while others methods
using multiple sensors rely heavily to prior knowledge to deal with noisy
nature from video stream. In this paper, we proposes action recognition method
using deep multi-input network. Furthermore, we proposed a Independent Gamma
Intensity Corretion (Ind-GIC) to enhance poor-illumination video, generating
one gamma for one frame to increase enhancement performance. To prove our
method is effective, there is some evaluation and comparison between our method
and existing methods. Experimental results show that our model achieves high
accuracy in on ARID dataset.
- Abstract(参考訳): 人間の行動認識技術は、監視、モーションコントロール、人間とコンピュータの相互作用において大きな需要があるため、ますます注目を集めている。
しかし、画像強調法やラベリングコストなどの低照度ビデオデータセットの制限により、既存の手法はいくつかの問題に対処する。
ビデオベースのアプローチの中には、特定のデータセットの効果と効率性があるが、ほとんどのケースに一般化できないものもある。
本稿では,深層多入力ネットワークを用いた行動認識手法を提案する。
さらに,低照度映像を強調する独立したガンマ強度相関 (ind-gic) を提案し, 1フレームにつき1ガンマを生成し, エンハンス性能を向上させる。
本手法が有効であることを示すため,提案手法と既存手法との比較を行った。
実験結果から,本モデルはARIDデータセットの精度が高いことがわかった。
関連論文リスト
- Multi-View People Detection in Large Scenes via Supervised View-Wise Contribution Weighting [44.48514301889318]
本稿では、教師付きビューワイドコントリビューション重み付け手法の開発により、多視点人物検出の改善に焦点をあてる。
モデルの一般化能力を高めるために、大規模な合成データセットが採用されている。
実験により,提案手法が有望な多面的人物検出性能の実現に有効であることを実証した。
論文 参考訳(メタデータ) (2024-05-30T11:03:27Z) - LCPR: A Multi-Scale Attention-Based LiDAR-Camera Fusion Network for
Place Recognition [11.206532393178385]
本稿では,マルチモーダル位置認識のための新しいニューラルネットワークLCPRを提案する。
位置認識性能を向上させるために,マルチビューカメラとLiDARデータを効果的に利用することができる。
論文 参考訳(メタデータ) (2023-11-06T15:39:48Z) - Egocentric RGB+Depth Action Recognition in Industry-Like Settings [50.38638300332429]
本研究は,産業的な環境下での自我中心のRGBとDepthモダリティからの行動の認識に焦点を当てる。
我々のフレームワークは、RGBとDepthの両方のモダリティを効果的に符号化する3DビデオSWIN変換器に基づいている。
また,ICIAP 2023におけるマルチモーダル動作認識チャレンジにおいて,本手法が第1位を確保した。
論文 参考訳(メタデータ) (2023-09-25T08:56:22Z) - Bright Channel Prior Attention for Multispectral Pedestrian Detection [1.441471691695475]
低照度環境下での歩行者検出を向上する新しい方法を提案する。
提案手法は,画像の強調と検出を統合されたフレームワークに統合する。
論文 参考訳(メタデータ) (2023-05-22T09:10:22Z) - DOAD: Decoupled One Stage Action Detection Network [77.14883592642782]
人々をローカライズし、ビデオからアクションを認識することは、ハイレベルなビデオ理解にとって難しい課題だ。
既存の手法は主に2段階ベースで、1段階は人物境界ボックス生成、もう1段階は行動認識を行う。
本稿では、時間的行動検出の効率を向上させるために、DOADと呼ばれる分離したワンステージネットワークを提案する。
論文 参考訳(メタデータ) (2023-04-01T08:06:43Z) - Video Segmentation Learning Using Cascade Residual Convolutional Neural
Network [0.0]
本研究では,残差情報を前景検出学習プロセスに組み込んだ新しい深層学習ビデオセグメンテーション手法を提案する。
Change Detection 2014とPetrobrasのプライベートデータセットであるPetrobrasROUTESで実施された実験は、提案手法の有効性を支持している。
論文 参考訳(メタデータ) (2022-12-20T16:56:54Z) - Combining Contrastive and Supervised Learning for Video Super-Resolution
Detection [0.0]
コントラストとクロスエントロピーの損失を用いた視覚表現の学習に基づく新しいアップスケール分解能検出法を提案する。
本手法は,圧縮ビデオにおいてもアップスケーリングを効果的に検出し,最先端の代替品よりも優れる。
論文 参考訳(メタデータ) (2022-05-20T18:58:13Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - Depth Guided Adaptive Meta-Fusion Network for Few-shot Video Recognition [86.31412529187243]
わずかにラベル付きサンプルで新しいアクションを学習することを目的としたビデオ認識はほとんどない。
本稿では,AMeFu-Netと呼ばれる映像認識のための深度誘導型適応メタフュージョンネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T03:06:20Z) - AR-Net: Adaptive Frame Resolution for Efficient Action Recognition [70.62587948892633]
行動認識はコンピュータビジョンにおいてオープンで困難な問題である。
本稿では,入力に条件付けされた各フレームの最適な解像度をオンザフライで選択し,効率的な動作認識を実現する,AR-Netと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-31T01:36:04Z) - TinyVIRAT: Low-resolution Video Action Recognition [70.37277191524755]
現実世界の監視環境では、ビデオ内のアクションは幅広い解像度でキャプチャされる。
天然の低解像度アクティビティを含むベンチマークデータセットTinyVIRATを導入する。
本稿では,プログレッシブ・ジェネレーティブ・アプローチを用いたビデオにおける小さな動作を認識する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T21:09:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。