論文の概要: A computational approach to visual ecology with deep reinforcement
learning
- arxiv url: http://arxiv.org/abs/2402.05266v1
- Date: Wed, 7 Feb 2024 21:23:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 17:21:56.467298
- Title: A computational approach to visual ecology with deep reinforcement
learning
- Title(参考訳): 深層強化学習による視覚生態学への計算的アプローチ
- Authors: Sacha Sokoloski, Jure Majnik, Philipp Berens
- Abstract要約: 本稿では,視覚生態学への計算的アプローチの基礎を定めている。
これは、生き残るためのエージェントのドライブから表現と行動がどのように現れるかを示す。
- 参考スコア(独自算出の注目度): 6.635611625764804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Animal vision is thought to optimize various objectives from metabolic
efficiency to discrimination performance, yet its ultimate objective is to
facilitate the survival of the animal within its ecological niche. However,
modeling animal behavior in complex environments has been challenging. To study
how environments shape and constrain visual processing, we developed a deep
reinforcement learning framework in which an agent moves through a 3-d
environment that it perceives through a vision model, where its only goal is to
survive. Within this framework we developed a foraging task where the agent
must gather food that sustains it, and avoid food that harms it. We first
established that the complexity of the vision model required for survival on
this task scaled with the variety and visual complexity of the food in the
environment. Moreover, we showed that a recurrent network architecture was
necessary to fully exploit complex vision models on the most visually demanding
tasks. Finally, we showed how different network architectures learned distinct
representations of the environment and task, and lead the agent to exhibit
distinct behavioural strategies. In summary, this paper lays the foundation for
a computational approach to visual ecology, provides extensive benchmarks for
future work, and demonstrates how representations and behaviour emerge from an
agent's drive for survival.
- Abstract(参考訳): 動物視覚は代謝効率から識別性能まで様々な目的を最適化すると考えられているが、その最終的な目的は生態学的ニッチ内での動物の生存を促進することである。
しかし,複雑な環境下での動物行動のモデル化は困難である。
そこで我々は,エージェントが視覚モデルを通して知覚する3次元環境内を移動し,その唯一の目的が生き残ることを目的とした深層強化学習フレームワークを開発した。
この枠組みの中で、エージェントがそれを維持する食物を収集し、それを傷つける食物を避ける必要がある飼料処理タスクを開発しました。
まず,この課題の生き残りに必要な視覚モデルの複雑さが,環境における食品の多様性と視覚的複雑さとともにスケールすることを確立した。
さらに,視覚的に要求されるタスクにおいて,複雑な視覚モデルを完全に活用するためには,再帰的なネットワークアーキテクチャが必要であることを示した。
最後に、異なるネットワークアーキテクチャが環境とタスクの異なる表現を学習し、エージェントに異なる行動戦略を示す方法を示した。
本稿では,視覚生態学への計算的アプローチの基礎を築き,今後の研究のための広範なベンチマークを提供し,エージェントの生存のためのドライブから表現と行動がどのように現れるかを示す。
関連論文リスト
- A Simulation Environment for the Neuroevolution of Ant Colony Dynamics [0.0]
創発的集団行動の研究を促進するためのシミュレーション環境を導入する。
現実世界のデータを活用することで、環境はターゲットのアリの跡をシミュレートし、制御可能なエージェントが複製を学ばなければならない。
論文 参考訳(メタデータ) (2024-06-19T01:51:15Z) - Enhancing Graph Representation of the Environment through Local and
Cloud Computation [2.9465623430708905]
複数の情報源からロボット環境のセマンティックな表現を提供するグラフベースの表現を提案する。
環境から情報を取得するために、このフレームワークは古典的なコンピュータビジョンツールと現代のコンピュータビジョンクラウドサービスを組み合わせる。
提案手法により、小さなオブジェクトも処理し、環境の意味表現に統合することが可能になる。
論文 参考訳(メタデータ) (2023-09-22T08:05:32Z) - Bridging the Gap to Real-World Object-Centric Learning [66.55867830853803]
自己教師付き方法で訓練されたモデルから特徴を再構成することは、完全に教師なしの方法でオブジェクト中心表現が生じるための十分な訓練信号であることを示す。
我々のアプローチであるDINOSAURは、シミュレーションデータ上で既存のオブジェクト中心学習モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-09-29T15:24:47Z) - The Introspective Agent: Interdependence of Strategy, Physiology, and
Sensing for Embodied Agents [51.94554095091305]
本論では, 環境の文脈において, 自己能力を考慮した内省的エージェントについて論じる。
自然と同じように、私たちは戦略を1つのツールとして再編成して、環境において成功させたいと考えています。
論文 参考訳(メタデータ) (2022-01-02T20:14:01Z) - Information is Power: Intrinsic Control via Information Capture [110.3143711650806]
我々は,潜時状態空間モデルを用いて推定したエージェントの状態訪問のエントロピーを最小化する,コンパクトで汎用的な学習目的を論じる。
この目的は、不確実性の低減に対応する環境情報収集と、将来の世界状態の予測不可能性の低減に対応する環境制御の両方をエージェントに誘導する。
論文 参考訳(メタデータ) (2021-12-07T18:50:42Z) - Unadversarial Examples: Designing Objects for Robust Vision [100.4627585672469]
現代の機械学習アルゴリズムの感度を入力摂動に活かし、「ロバストオブジェクト」を設計するフレームワークを開発しています。
標準ベンチマークから(シミュレーション中)ロボット工学まで,さまざまな視覚ベースのタスクに対するフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-12-22T18:26:07Z) - Emergent Hand Morphology and Control from Optimizing Robust Grasps of
Diverse Objects [63.89096733478149]
多様な物体をつかむために、効果的なハンドデザインが自然に現れるデータ駆動型アプローチを紹介します。
形態と把持スキルを共同で効率的に設計するベイズ最適化アルゴリズムを開発した。
我々は,新しい物体をつかむための堅牢で費用効率のよい手形態を発見するためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-12-22T17:52:29Z) - Embodied Visual Active Learning for Semantic Segmentation [33.02424587900808]
本研究では,エージェントが3次元環境を探索し,視覚シーン理解の獲得を目指す,具体化されたビジュアルアクティブラーニングの課題について検討する。
我々は、学習と事前指定の両方のエージェントのバッテリーを開発し、環境に関する異なるレベルの知識で開発する。
本研究では,matterport3dシミュレータを用いて提案手法を広範囲に評価し,本手法が比較対象よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-12-17T11:02:34Z) - Learning intuitive physics and one-shot imitation using
state-action-prediction self-organizing maps [0.0]
人間は探索と模倣によって学び、世界の因果モデルを構築し、両方を使って新しいタスクを柔軟に解決する。
このような特徴を生み出す単純だが効果的な教師なしモデルを提案する。
エージェントがアクティブな推論スタイルで柔軟に解決する、複数の関連するが異なる1ショットの模倣タスクに対して、その性能を示す。
論文 参考訳(メタデータ) (2020-07-03T12:29:11Z) - Ecological Reinforcement Learning [76.9893572776141]
このような条件下での学習を容易にする環境特性について検討する。
環境の特性が強化学習エージェントのパフォーマンスにどのように影響するかを理解することは、学習を魅力的にする方法でタスクを構造化するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-22T17:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。