論文の概要: Who's a Good Boy? Reinforcing Canine Behavior in Real-Time using Machine
Learning
- arxiv url: http://arxiv.org/abs/2101.02380v2
- Date: Mon, 11 Jan 2021 17:22:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 13:37:35.388663
- Title: Who's a Good Boy? Reinforcing Canine Behavior in Real-Time using Machine
Learning
- Title(参考訳): 良い子は誰?
機械学習を用いたリアルタイム犬行動の強化
- Authors: Jason Stock, Tom Cavey
- Abstract要約: 我々は,機械学習と組み込みハードウェアを組み合わせた自動ドッグトリートディスペンサーを開発した。
私たちは、犬の仲間の3つの行動を特定します: "sit"、 "stand"、 "lie down"、最大92%のテスト精度と毎秒39フレーム。
我々は,Jetson Nanoを推論し,サーボモータに信号を送信することで,オペレーティング配信装置からの報酬を解放することで,肯定的な行動を強化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we outline the development methodology for an automatic dog
treat dispenser which combines machine learning and embedded hardware to
identify and reward dog behaviors in real-time. Using machine learning
techniques for training an image classification model we identify three
behaviors of our canine companions: "sit", "stand", and "lie down" with up to
92% test accuracy and 39 frames per second. We evaluate a variety of neural
network architectures, interpretability methods, model quantization and
optimization techniques to develop a model specifically for an NVIDIA Jetson
Nano. We detect the aforementioned behaviors in real-time and reinforce
positive actions by making inference on the Jetson Nano and transmitting a
signal to a servo motor to release rewards from a treat delivery apparatus.
- Abstract(参考訳): 本稿では,機械学習と組込みハードウェアを組み合わせた犬用自動ディスペンサーの開発手法について概説する。
画像分類モデルのトレーニングに機械学習のテクニックを使用することで、犬の仲間の“sit”、“stand”、“lie down”の3つの振る舞いを、最大92%のテスト精度と毎秒39フレームで識別します。
我々は,nvidia jetson nano専用モデルを開発するために,様々なニューラルネットワークアーキテクチャ,解釈可能性手法,モデル量子化および最適化手法を評価した。
上記の動作をリアルタイムに検出し、jetson nanoの推論を行い、サーボモータに信号を送信して、トリート配送装置から報奨を解放することで、ポジティブな動作を強化する。
関連論文リスト
- Utilizing Machine Learning and 3D Neuroimaging to Predict Hearing Loss: A Comparative Analysis of Dimensionality Reduction and Regression Techniques [0.0]
我々は,脳の灰白質3次元画像における難聴閾値を予測するための機械学習アプローチについて検討した。
第1フェーズでは,3次元CNNモデルを用いて,遅延空間への高次元入力を低減した。
第2フェーズでは、このモデルを使用して、リッチな機能への入力を削減した。
論文 参考訳(メタデータ) (2024-04-30T18:39:41Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - In-situ animal behavior classification using knowledge distillation and
fixed-point quantization [6.649514998517633]
我々は、教師モデルとして残差ニューラルネットワーク(ResNet)として知られる、深く複雑な畳み込みニューラルネットワークを採用している。
我々は,開発したKDモデルについて,汎用の首輪および耳栓装置の組込みシステム上で,定量化および定量化の両バージョンを実装した。
論文 参考訳(メタデータ) (2022-09-09T06:07:17Z) - Masked World Models for Visual Control [90.13638482124567]
視覚表現学習と動的学習を分離する視覚モデルに基づくRLフレームワークを提案する。
提案手法は,様々な視覚ロボット作業における最先端性能を実現する。
論文 参考訳(メタデータ) (2022-06-28T18:42:27Z) - SEAL: Self-supervised Embodied Active Learning using Exploration and 3D
Consistency [122.18108118190334]
本稿では,SEAL(Self-Embodied Embodied Active Learning)というフレームワークを提案する。
インターネットイメージ上で訓練された知覚モデルを使用して、積極的な探索ポリシーを学ぶ。
我々は3Dセマンティックマップを用いて、行動と知覚の両方を、完全に自己管理された方法で学習する。
論文 参考訳(メタデータ) (2021-12-02T06:26:38Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Learning a generative model for robot control using visual feedback [7.171234436165255]
本稿では,ロボット制御に視覚フィードバックを取り入れた新しい定式化を提案する。
モデルにおける推論により,特徴のターゲット位置に対応するロボット状態を推測することができる。
本研究では,不正確な制御を行うロボットに対して,握りとタイトな挿入を実行することで,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-03-10T00:34:01Z) - Efficient Learning of Model Weights via Changing Features During
Training [0.0]
学習中の特徴を動的に変化させる機械学習モデルを提案する。
私たちの主な動機は、トレーニングプロセス中に小さなコンテンツでモデルを更新し、より説明力の少ない機能を大きなプールから新しいものに置き換えることです。
論文 参考訳(メタデータ) (2020-02-21T12:38:14Z) - Automated Testing for Deep Learning Systems with Differential Behavior
Criteria [5.653421430985333]
本研究では,差分行動基準に基づくディープラーニングシステムのための自動テストシステムの構築について検討した。
テストイテレーション毎に3つの事前学習モデルの差動挙動を観察することにより,誤フィードバックを誘発する入力画像をコーナーケースとして登録した。
深層学習システムのためのフォトリアリスティック画像を生成するために, 差動行動基準に基づく他の手法について検討した。
論文 参考訳(メタデータ) (2019-12-31T10:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。