論文の概要: An ocular biomechanics environment for reinforcement learning
- arxiv url: http://arxiv.org/abs/2008.05088v1
- Date: Wed, 12 Aug 2020 03:39:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 04:35:37.531922
- Title: An ocular biomechanics environment for reinforcement learning
- Title(参考訳): 強化学習のための眼バイオメカニクス環境
- Authors: Julie Iskander and Mohammed Hossny
- Abstract要約: 本稿では、眼環境と、Deep Deterministic Policy Gradients法を用いて学習したエージェントについて述べる。
提案フレームワークは,眼生力学の理解を深めるために,深層強化学習の能力を利用するための第一歩である。
- 参考スコア(独自算出の注目度): 2.0303656145222857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning has been applied to human movement through
physiologically-based biomechanical models to add insights into the neural
control of these movements; it is also useful in the design of prosthetics and
robotics. In this paper, we extend the use of reinforcement learning into
controlling an ocular biomechanical system to perform saccades, which is one of
the fastest eye movement systems. We describe an ocular environment and an
agent trained using Deep Deterministic Policy Gradients method to perform
saccades. The agent was able to match the desired eye position with a mean
deviation angle of 3:5+/-1:25 degrees. The proposed framework is a first step
towards using the capabilities of deep reinforcement learning to enhance our
understanding of ocular biomechanics.
- Abstract(参考訳): 強化学習は、生理学に基づく生体力学モデルを通して人間の運動に応用され、これらの運動の神経制御に関する洞察を付加し、人工装具やロボット工学の設計にも有用である。
本稿では,最高速眼球運動系の一つであるサッケードの眼球バイオメカニカルシステムの制御における強化学習の利用を拡大する。
本稿では、眼環境と、Deep Deterministic Policy Gradients法を用いて学習したエージェントについて述べる。
このエージェントは、所望の目の位置を平均偏差角3:5+/-1:25で一致させることができた。
提案する枠組みは,深層強化学習の能力を利用して眼バイオメカニクスの理解を深める第一歩である。
関連論文リスト
- Deep Dive into Model-free Reinforcement Learning for Biological and Robotic Systems: Theory and Practice [17.598549532513122]
モデルフリー強化学習の数学的側面とアルゴリズム的側面を簡潔に表現する。
我々は,動物やロボットの行動に対するフィードバック制御のツールとして,テクスチタクタ・クリティカルな手法を用いた。
論文 参考訳(メタデータ) (2024-05-19T05:58:44Z) - MS-MANO: Enabling Hand Pose Tracking with Biomechanical Constraints [50.61346764110482]
筋骨格系と学習可能なパラメトリックハンドモデルMANOを統合し,MS-MANOを作成する。
このモデルは骨格系を駆動する筋肉と腱の力学をエミュレートし、結果として生じるトルク軌跡に生理学的に現実的な制約を与える。
また,マルチ層パーセプトロンネットワークによる初期推定ポーズを改良する,ループ式ポーズ改善フレームワークBioPRを提案する。
論文 参考訳(メタデータ) (2024-04-16T02:18:18Z) - Machine Learning Applications in Spine Biomechanics [0.642428789697329]
機械学習とコンピュータビジョン技術は、単一のカメラ画像と同じくらい単純な3Dボディ形状、人体計測、運動学を推定するのに役立つ。
本研究では,これらの手法を従来の筋骨格モデルと統合し,脊髄生体力学の包括的解析を可能にする枠組みを提案する。
本研究における実世界の応用例としては, 職場での揚力評価, 自動車事故における鞭打ち損傷の評価, プロスポーツにおける生体力学的解析などが挙げられる。
論文 参考訳(メタデータ) (2024-01-10T04:45:12Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Vision-Based Manipulators Need to Also See from Their Hands [58.398637422321976]
本研究では,視覚的視点の選択が,生のセンサ観測から身体操作の文脈における学習と一般化にどう影響するかを検討する。
手中心(目の)視点は可観測性を低下させるが、トレーニング効率とアウト・オブ・ディストリビューションの一般化を一貫して改善する。
論文 参考訳(メタデータ) (2022-03-15T18:46:18Z) - Attention Mechanisms in Computer Vision: A Survey [75.6074182122423]
本稿では,コンピュータビジョンにおける様々な注意機構について概観する。
チャネルアテンション,空間アテンション,時間アテンション,分岐アテンションなど,アプローチによって分類する。
我々は注意機構研究の今後の方向性を提案する。
論文 参考訳(メタデータ) (2021-11-15T09:18:40Z) - Measuring and modeling the motor system with machine learning [117.44028458220427]
モーターシステムの理解における機械学習の有用性は、データの収集、測定、分析の方法に革命をもたらすことを約束している。
本稿では, ポーズ推定, 運動解析, 次元減少, 閉ループフィードバックから, ニューラル相関の理解, 機能停止まで, 機械学習の利用の増大について論じる。
論文 参考訳(メタデータ) (2021-03-22T12:42:16Z) - Modelling Human Kinetics and Kinematics during Walking using
Reinforcement Learning [0.0]
実世界の人間の運動に匹敵する3次元歩行運動をシミュレーションにより自動生成する手法を開発した。
本手法は, 異なる運動構造と歩行特性を持つヒト-サブジェクトをまたいでよく一般化することを示す。
論文 参考訳(メタデータ) (2021-03-15T04:01:20Z) - Learning Predictive Models for Ergonomic Control of Prosthetic Devices [9.374871304813638]
インタラクションプリミティブを拡張して,予測バイオメカニクスを実現する。
我々はこの能力をモデル予測制御戦略で活用し、潜在的なロボット行動のエルゴノミクスおよびバイオメカニカルな影響を識別する。
バイオメカニカルコスト関数によって選択された制御作用により, 膝や筋力の最小化が実証された。
論文 参考訳(メタデータ) (2020-11-13T16:39:01Z) - Distilled Semantics for Comprehensive Scene Understanding from Videos [53.49501208503774]
本稿では,一眼レフカメラによる全体像の理解に向けて,セマンティクスとともに深度や動きを学習し,さらなる一歩を踏み出した。
これら3つの課題を,知識蒸留と自己監督に基づく新たなトレーニングプロトコルによって共同で解決する。
その結果, 単眼深度推定, 光流, モーションセグメンテーションの最先端結果が得られた。
論文 参考訳(メタデータ) (2020-03-31T08:52:13Z) - A Spiking Neural Network Emulating the Structure of the Oculomotor
System Requires No Learning to Control a Biomimetic Robotic Head [0.0]
バイオミメティック・ロボットヘッドのプロトタイプの心臓にニューロモルフィック・オキュロモータ・コントローラが配置されている。
コントローラは、すべてのデータがスパイクニューラルネットワーク(SNN)によって符号化され、処理されるという意味でユニークなものです。
ロボットの目標追跡能力について報告し、その眼球運動学は人間の眼研究で報告されたものと類似していることを示し、生物学的に制約された学習を用いて、その性能をさらに向上させることができることを示す。
論文 参考訳(メタデータ) (2020-02-18T13:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。