論文の概要: Hands-on detection for steering wheels with neural networks
- arxiv url: http://arxiv.org/abs/2306.09044v1
- Date: Thu, 15 Jun 2023 11:07:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 15:16:53.200639
- Title: Hands-on detection for steering wheels with neural networks
- Title(参考訳): ニューラルネットワークを用いたステアリングホイールのハンズオン検出
- Authors: Michael Hollmer and Andreas Fischer
- Abstract要約: 機械学習に基づくハンズオン検出アルゴリズムの概念を提案する。
ハンドルのセンサーマットは、運転者の手が近づくとすぐに容量の変化を検出する。
ハンズオンやハンドオフの状況に関する評価と最終決定は、機械学習を用いて行われる。
- 参考スコア(独自算出の注目度): 0.6367279911825442
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this paper the concept of a machine learning based hands-on detection
algorithm is proposed. The hand detection is implemented on the hardware side
using a capacitive method. A sensor mat in the steering wheel detects a change
in capacity as soon as the driver's hands come closer. The evaluation and final
decision about hands-on or hands-off situations is done using machine learning.
In order to find a suitable machine learning model, different models are
implemented and evaluated. Based on accuracy, memory consumption and
computational effort the most promising one is selected and ported on a micro
controller. The entire system is then evaluated in terms of reliability and
response time.
- Abstract(参考訳): 本稿では,機械学習に基づくハンズオン検出アルゴリズムの概念を提案する。
手検出は静電容量法を用いてハードウェア側に実装される。
ステアリングホイール内のセンサマットは、運転者の手が近づくとすぐにキャパシティの変化を検出する。
ハンズオンやハンドオフの状況に関する評価と最終決定は、機械学習を用いて行われる。
適切な機械学習モデルを見つけるために、異なるモデルを実装して評価する。
精度、メモリ消費、計算作業に基づいて、最も有望なものが選択され、マイクロコントローラに移植される。
システム全体が信頼性と応答時間の観点から評価される。
関連論文リスト
- Improving automatic detection of driver fatigue and distraction using
machine learning [0.0]
運転者の疲労と注意をそらした運転は交通事故の重要な要因である。
本稿では,視覚に基づくアプローチと機械学習に基づくアプローチを用いて,疲労と注意をそらした運転行動の同時検出手法を提案する。
論文 参考訳(メタデータ) (2024-01-04T06:33:46Z) - A model-free approach to fingertip slip and disturbance detection for
grasp stability inference [0.0]
触覚センサを用いた握り安定性の評価手法を提案する。
我々は、アレグロハンドに搭載された高感度のウスキン触覚センサーを用いて、我々の手法を検証、検証した。
論文 参考訳(メタデータ) (2023-11-22T09:04:26Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Neural Network Based Lidar Gesture Recognition for Realtime Robot
Teleoperation [0.0]
移動ロボット制御のための低複雑さライダージェスチャー認識システムを提案する。
このシステムは軽量で、限られた計算能力を持つ移動ロボット制御に適している。
ライダーの使用はシステムの堅牢性に寄与し、ほとんどの屋外環境での運用を可能にしている。
論文 参考訳(メタデータ) (2021-09-17T00:49:31Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - When Autonomous Systems Meet Accuracy and Transferability through AI: A
Survey [17.416847623629362]
本稿では,自律システムにおける学習に基づくアプローチを,正確性と伝達可能性の観点から概観する。
敵の学習の利点を示すため、正確性や伝達可能性の見直しに重点を置いている。
本稿では,自律システムにおける対人学習,RL,メタラーニングの課題と今後の課題について論じる。
論文 参考訳(メタデータ) (2020-03-29T04:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。