論文の概要: Articulated Animal AI: An Environment for Animal-like Cognition in a Limbed Agent
- arxiv url: http://arxiv.org/abs/2410.09275v1
- Date: Fri, 11 Oct 2024 21:55:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 15:23:18.128635
- Title: Articulated Animal AI: An Environment for Animal-like Cognition in a Limbed Agent
- Title(参考訳): 人工動物AI: ランベッドエージェントにおける動物のような認知環境
- Authors: Jeremy Lucas, Isabeau Prémont-Schwarz,
- Abstract要約: 主な改善点は、より複雑な行動と実際の動物の動きによく似た環境との相互作用を可能にする、エージェントの四肢の追加である。
テストベンチにはカリキュラムのトレーニングシーケンスと評価ツールが統合されており、ユーザが独自のトレーニングプログラムを開発する必要がなくなる。
- 参考スコア(独自算出の注目度): 2.1976444142070393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents the Articulated Animal AI Environment for Animal Cognition, an enhanced version of the previous AnimalAI Environment. Key improvements include the addition of agent limbs, enabling more complex behaviors and interactions with the environment that closely resemble real animal movements. The testbench features an integrated curriculum training sequence and evaluation tools, eliminating the need for users to develop their own training programs. Additionally, the tests and training procedures are randomized, which will improve the agent's generalization capabilities. These advancements significantly expand upon the original AnimalAI framework and will be used to evaluate agents on various aspects of animal cognition.
- Abstract(参考訳): 本稿では,前回のAnimalAI環境の強化版であるArticulated Animal AI Environment for Animal Cognitionを提案する。
主な改善点は、より複雑な行動と実際の動物の動きによく似た環境との相互作用を可能にする、エージェントの四肢の追加である。
テストベンチにはカリキュラムのトレーニングシーケンスと評価ツールが統合されており、ユーザが独自のトレーニングプログラムを開発する必要がなくなる。
さらに、テストとトレーニング手順はランダム化され、エージェントの一般化能力が向上する。
これらの進歩は、元のAnimalAIフレームワークを大きく拡張し、動物認知の様々な側面におけるエージェントの評価に使用される。
関連論文リスト
- EgoPet: Egomotion and Interaction Data from an Animal's Perspective [82.7192364237065]
本稿では,同時行動とマルチエージェントインタラクションの多様な例を含む,ペットの情緒的イメージのデータセットを紹介する。
EgoPetは、既存の人間や車両のエゴセントリックなデータセットとは根本的に異なる視点を提供する。
動物行動を把握する2つのドメイン内ベンチマークタスクと、ロボット四足歩行のための事前学習リソースとしてEgoPetの有用性を評価するための第3のベンチマークを定義する。
論文 参考訳(メタデータ) (2024-04-15T17:59:47Z) - The Case for Animal-Friendly AI [0.0]
大型言語モデル(LLM)における動物行動評価のための概念実証システムを開発した。
予備的な結果は, 動物に与える考察に関して, 実験モデルの結果をベンチマークすることができることを示唆している。
この研究は、より有用で責任あるAIシステムへの一歩であり、すべての知覚的存在の重要な関心と視点をよりよく認識し、尊重する。
論文 参考訳(メタデータ) (2024-03-02T12:41:11Z) - Computer Vision for Primate Behavior Analysis in the Wild [61.08941894580172]
ビデオに基づく行動監視は、動物の認知と行動を研究する方法を変える大きな可能性を秘めている。
今でも、エキサイティングな見通しと、今日実際に達成できるものの間には、かなり大きなギャップがある。
論文 参考訳(メタデータ) (2024-01-29T18:59:56Z) - Aquarium: A Comprehensive Framework for Exploring Predator-Prey Dynamics
through Multi-Agent Reinforcement Learning Algorithms [9.225703308176435]
水族館は捕食者-捕食者間相互作用のための総合的なマルチエージェント強化学習環境である。
2次元のエッジラッピング面上での物理ベースのエージェントの動きを特徴とする。
エージェント環境相互作用(観察、行動、報酬)と環境設定(エージェント速度、捕食、捕食者飢餓など)は、完全にカスタマイズ可能である。
論文 参考訳(メタデータ) (2024-01-13T12:09:49Z) - The Animal-AI Environment: A Virtual Laboratory For Comparative Cognition and Artificial Intelligence Research [13.322270147627151]
Animal-AI Environmentは、人工知能と相対認知研究コミュニティの協力を促進するために設計されたゲームベースの研究プラットフォームである。
新機能には、インタラクティブボタン、報酬ディスペンサー、プレイヤー通知などが含まれる。
新たに設計したテストの一連のエージェントと、比較認知の分野での研究に触発された900のタスクのAnimal-AI Testbedの結果を提示する。
論文 参考訳(メタデータ) (2023-12-18T18:18:10Z) - CNN-Based Action Recognition and Pose Estimation for Classifying Animal
Behavior from Videos: A Survey [0.0]
アクション認識(Action Recognition)は、1つ以上の被験者がトリミングされたビデオで行う活動の分類であり、多くの技術の基礎を形成する。
人間の行動認識のためのディープラーニングモデルは、過去10年間に進歩してきた。
近年,深層学習に基づく行動認識を取り入れた研究への関心が高まっている。
論文 参考訳(メタデータ) (2023-01-15T20:54:44Z) - DIAMBRA Arena: a New Reinforcement Learning Platform for Research and
Experimentation [91.3755431537592]
本研究は、強化学習研究と実験のための新しいプラットフォームであるDIAMBRA Arenaを提示する。
高品質な環境のコレクションが,OpenAI Gym標準に完全に準拠したPython APIを公開している。
これらは、離散的なアクションと観測を生のピクセルと追加の数値で構成したエピソディックなタスクである。
論文 参考訳(メタデータ) (2022-10-19T14:39:10Z) - The Introspective Agent: Interdependence of Strategy, Physiology, and
Sensing for Embodied Agents [51.94554095091305]
本論では, 環境の文脈において, 自己能力を考慮した内省的エージェントについて論じる。
自然と同じように、私たちは戦略を1つのツールとして再編成して、環境において成功させたいと考えています。
論文 参考訳(メタデータ) (2022-01-02T20:14:01Z) - AP-10K: A Benchmark for Animal Pose Estimation in the Wild [83.17759850662826]
一般的な動物のポーズ推定のための,最初の大規模ベンチマークであるAP-10Kを提案する。
AP-10Kは動物23種と60種から収集・濾過された10,015枚からなる。
その結果、様々な動物種からの学習の精度と一般化能力の両面での優位性に関する実験的な証拠が得られた。
論文 参考訳(メタデータ) (2021-08-28T10:23:34Z) - SyDog: A Synthetic Dog Dataset for Improved 2D Pose Estimation [3.411873646414169]
SyDogは、地面に真実のポーズとバウンディングボックス座標を含む犬の合成データセットである。
我々は、SyDogで訓練されたポーズ推定モデルが、実データで純粋に訓練されたモデルよりも優れたパフォーマンスを実現することを実証した。
論文 参考訳(メタデータ) (2021-07-31T14:34:40Z) - Cetacean Translation Initiative: a roadmap to deciphering the
communication of sperm whales [97.41394631426678]
最近の研究では、非ヒト種における音響コミュニケーションを分析するための機械学習ツールの約束を示した。
マッコウクジラの大量生物音響データの収集と処理に必要な重要な要素について概説する。
開発された技術能力は、非人間コミュニケーションと動物行動研究を研究する幅広いコミュニティにおいて、クロス応用と進歩をもたらす可能性が高い。
論文 参考訳(メタデータ) (2021-04-17T18:39:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。