論文の概要: FR-Net:A Light-weight FFT Residual Net For Gaze Estimation
- arxiv url: http://arxiv.org/abs/2305.11875v1
- Date: Thu, 4 May 2023 12:49:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-28 05:28:45.844130
- Title: FR-Net:A Light-weight FFT Residual Net For Gaze Estimation
- Title(参考訳): FR-Net:ゲーズ推定のための軽量FFT残差ネット
- Authors: Tao Xu, Bo Wu, Ruilong Fan, Yun Zhou and Di Huang
- Abstract要約: 視線角を正確に推定するための新しい軽量モデルFR-Netを提案する。
提案手法は,最先端の視線推定法と比較して,MPIIでは3.86,EYEDIAPでは4.51とかなり低い視線誤差角を実現している。
これらの結果から,提案手法は人間とコンピュータのインタラクションや運転支援システムなどの分野において有意な応用が期待できる。
- 参考スコア(独自算出の注目度): 18.497521491142596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gaze estimation is a crucial task in computer vision, however, existing
methods suffer from high computational costs, which limit their practical
deployment in resource-limited environments. In this paper, we propose a novel
lightweight model, FR-Net, for accurate gaze angle estimation while
significantly reducing computational complexity. FR-Net utilizes the Fast
Fourier Transform (FFT) to extract gaze-relevant features in frequency domains
while reducing the number of parameters. Additionally, we introduce a shortcut
component that focuses on the spatial domain to further improve the accuracy of
our model. Our experimental results demonstrate that our approach achieves
substantially lower gaze error angles (3.86 on MPII and 4.51 on EYEDIAP)
compared to state-of-the-art gaze estimation methods, while utilizing 17 times
fewer parameters (0.67M) and only 12\% of FLOPs (0.22B). Furthermore, our
method outperforms existing lightweight methods in terms of accuracy and
efficiency for the gaze estimation task. These results suggest that our
proposed approach has significant potential applications in areas such as
human-computer interaction and driver assistance systems.
- Abstract(参考訳): 視線推定はコンピュータビジョンにおいて重要なタスクであるが、既存の手法は計算コストが高く、リソース制限された環境での実際の展開を制限する。
本稿では,計算複雑性を著しく低減しつつ,正確な視線角推定のための新しい軽量モデルFR-Netを提案する。
fr-netは高速フーリエ変換(fft)を利用して周波数領域の視線関連特徴を抽出し、パラメータの数を減らす。
さらに,空間領域に着目したショートカットコンポーネントを導入し,モデルの精度をさらに向上させる。
EYEDIAPでは,17倍のパラメータ (0.67M) と12%のFLOPs (0.22B) を用いながら, 現状の視線推定法と比較すると, 視線誤差角がかなり低い(MPIIでは3.86, EYEDIAPでは4.51)。
さらに,提案手法は,視線推定タスクの精度と効率の観点から,既存の軽量手法よりも優れている。
これらの結果から,提案手法は人間とコンピュータのインタラクションや運転支援システムなどの分野において有意な応用が期待できる。
関連論文リスト
- Efficient Diffusion as Low Light Enhancer [63.789138528062225]
RATR(Reflectance-Aware Trajectory Refinement)は、イメージの反射成分を用いて教師の軌跡を洗練するための、シンプルで効果的なモジュールである。
textbfReDDiT (textbfDistilled textbfTrajectory) は低照度画像強調(LLIE)に適した効率的で柔軟な蒸留フレームワークである。
論文 参考訳(メタデータ) (2024-10-16T08:07:18Z) - Parameter-efficient Bayesian Neural Networks for Uncertainty-aware Depth Estimation [6.750319758787498]
大規模変換器を用いた視覚モデルにおける部分空間ベイズ推定のためのPEFT法の適合性について検討する。
実のところ、BitFit、DiffFit、LoRA、CoLoRAはLoRAにインスパイアされた新しいPEFT法であり、ベイジアン推論はより堅牢で信頼性の高い予測性能を実現する。
論文 参考訳(メタデータ) (2024-09-25T16:49:25Z) - Adaptive Resolution Inference (ARI): Energy-Efficient Machine Learning for Internet of Things [11.802983172874901]
Internet of Thingsデバイスにおける機械学習の実装は、限られたエネルギーと計算資源のために、重大な運用上の問題を引き起こす。
本稿では,エネルギー散逸とモデル性能の新たなトレードオフを評価する新しい手法である適応分解能推論(ARI)を提案する。
論文 参考訳(メタデータ) (2024-08-26T16:00:26Z) - Accelerating Convolutional Neural Network Pruning via Spatial Aura
Entropy [0.0]
プルーニング(pruning)は、畳み込みニューラルネットワーク(CNN)モデルの計算複雑性とメモリフットプリントを低減する一般的なテクニックである。
MI計算の既存の手法は、高い計算コストとノイズに対する感度に悩まされ、最適プルーニング性能が低下する。
空間オーラエントロピーを用いたCNNプルーニングのためのMI計算の改良手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:43:49Z) - Fast Exploration of the Impact of Precision Reduction on Spiking Neural
Networks [63.614519238823206]
ターゲットハードウェアがコンピューティングの端に達すると、スパイキングニューラルネットワーク(SNN)が実用的な選択となる。
我々は、近似誤差を伝播するそのようなモデルの能力を生かした探索手法を開発するために、インターヴァル算術(IA)モデルを用いる。
論文 参考訳(メタデータ) (2022-11-22T15:08:05Z) - FasterPose: A Faster Simple Baseline for Human Pose Estimation [65.8413964785972]
本稿では,高速ポーズ推定のためのLR表現を用いた費用対効果ネットワークの設計パラダイムであるFasterPoseを提案する。
我々は,FasterPoseのトレーニング挙動について検討し,収束を加速する新しい回帰クロスエントロピー(RCE)損失関数を定式化する。
従来のポーズ推定ネットワークと比較すると,FLOPの58%が減少し,精度が1.3%向上した。
論文 参考訳(メタデータ) (2021-07-07T13:39:08Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - A Unified Light Framework for Real-time Fault Detection of Freight Train
Images [16.721758280029302]
貨物列車のリアルタイム故障検出は、鉄道輸送の安全と最適運転を保証する上で重要な役割を担っている。
深層学習に基づくアプローチの有望な結果にもかかわらず、貨物列車画像におけるこれらの断層検出器の性能は精度と効率の両立には程遠い。
本稿では,リソース要求の少ないリアルタイム動作をサポートしながら,検出精度を向上させるための統一光フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-31T05:10:20Z) - Towards Practical Lipreading with Distilled and Efficient Models [57.41253104365274]
ニューラルネットワークの復活により、リリーディングは多くの進歩を目の当たりにした。
最近の研究は、最適なアーキテクチャを見つけるか、一般化を改善することで、パフォーマンスを改善するといった側面に重点を置いている。
現在の方法論と、実践的なシナリオにおける効果的なリップリーディングのデプロイ要件との間には、依然として大きなギャップがあります。
まず, LRW と LRW-1000 をそれぞれ 88.5% と 46.6% に比例して, 最先端の性能を高めることを提案する。
論文 参考訳(メタデータ) (2020-07-13T16:56:27Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。