論文の概要: Adaptive patch foraging in deep reinforcement learning agents
- arxiv url: http://arxiv.org/abs/2210.08085v1
- Date: Fri, 14 Oct 2022 20:16:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 20:40:38.233391
- Title: Adaptive patch foraging in deep reinforcement learning agents
- Title(参考訳): 深層強化学習剤の適応パッチ飼料化
- Authors: Nathan J. Wispinski, Andrew Butcher, Kory W. Mathewson, Craig S.
Chapman, Matthew M. Botvinick, Patrick M. Pilarski
- Abstract要約: 機械学習エージェントは、生物学的な捕食者に似たパターンに適応的に飼料にパッチを当てることを学ぶことができることを示す。
この研究は、生態学的に妥当な圧力で複雑な環境で相互作用するエージェントが共通の解に達することを示唆している。
- 参考スコア(独自算出の注目度): 4.654270325882834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Patch foraging is one of the most heavily studied behavioral optimization
challenges in biology. However, despite its importance to biological
intelligence, this behavioral optimization problem is understudied in
artificial intelligence research. Patch foraging is especially amenable to
study given that it has a known optimal solution, which may be difficult to
discover given current techniques in deep reinforcement learning. Here, we
investigate deep reinforcement learning agents in an ecological patch foraging
task. For the first time, we show that machine learning agents can learn to
patch forage adaptively in patterns similar to biological foragers, and
approach optimal patch foraging behavior when accounting for temporal
discounting. Finally, we show emergent internal dynamics in these agents that
resemble single-cell recordings from foraging non-human primates, which
complements experimental and theoretical work on the neural mechanisms of
biological foraging. This work suggests that agents interacting in complex
environments with ecologically valid pressures arrive at common solutions,
suggesting the emergence of foundational computations behind adaptive,
intelligent behavior in both biological and artificial agents.
- Abstract(参考訳): パッチ採餌は生物学で最も研究されている行動最適化の課題の1つである。
しかし、生物学的知能に重要であるにもかかわらず、この行動最適化問題は人工知能研究で研究されている。
パッチフォアリングは、既知の最適解を持つため、特に研究に適しており、深層強化学習における現在の技術を見つけるのが困難である。
本稿では,生態パッチ採餌作業における深層強化学習エージェントについて検討する。
そこで,本研究では,機械学習エージェントが生物飼料と類似したパターンに適応して飼料にパッチを施し,時間的ディスカウントを考慮すれば最適なパッチ飼料化行動にアプローチできることを初めて示す。
最後に, 生物捕食の神経機構に関する実験的および理論的研究を補完する, 非ヒト捕食霊長類からの単一細胞記録に類似したエージェントの内部動態を示す。
この研究は、生態学的に有効な圧力と複雑な環境で相互作用するエージェントが共通の解決策に到達し、生物学的および人工的なエージェントの適応的、インテリジェントな振る舞いの背後に基礎的な計算が出現することを示唆している。
関連論文リスト
- Life, uh, Finds a Way: Systematic Neural Search [2.163881720692685]
エージェントの動作に迅速に適応して、設定における継続的な問題を解決するという課題に取り組みます。
深層強化学習に焦点をあてる代わりに,探索手順の物理的表現としての視聴行動を提案する。
本稿では,行動実行とグラフの突然変異の間の厳密なフィードバックループを調節することにより,行動の暗黙的な列挙を行うアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2024-10-02T09:06:54Z) - BioDiscoveryAgent: An AI Agent for Designing Genetic Perturbation Experiments [112.25067497985447]
そこで,BioDiscoveryAgentを紹介した。このエージェントは,新しい実験を設計し,その結果の理由を明らかにし,仮説空間を効率的にナビゲートし,望ましい解に到達させる。
BioDiscoveryAgentは、機械学習モデルをトレーニングすることなく、新しい実験を独自に設計することができる。
6つのデータセットで関連する遺伝的摂動を予測することで、平均21%の改善が達成されている。
論文 参考訳(メタデータ) (2024-05-27T19:57:17Z) - Causal machine learning for single-cell genomics [94.28105176231739]
単細胞ゲノミクスへの機械学習技術の応用とその課題について論じる。
まず, 単一細胞生物学における現在の因果的アプローチの基盤となるモデルについて述べる。
次に、単一セルデータへの因果的アプローチの適用におけるオープンな問題を特定する。
論文 参考訳(メタデータ) (2023-10-23T13:35:24Z) - A Neuro-mimetic Realization of the Common Model of Cognition via Hebbian
Learning and Free Energy Minimization [55.11642177631929]
大規模なニューラル生成モデルは、意味的に豊富なテキストのパスを合成したり、複雑な画像を生成することができる。
我々はコモン・モデル・オブ・コグニティブ・ニューラル・ジェネレーティブ・システムについて論じる。
論文 参考訳(メタデータ) (2023-10-14T23:28:48Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Towards the Neuroevolution of Low-level Artificial General Intelligence [5.2611228017034435]
我々は、AI(Artificial General Intelligence, AGI)の検索は、人間レベルの知能よりもはるかに低いレベルから始まるべきだと論じる。
我々の仮説は、エージェントが環境の中で行動するとき、学習は感覚フィードバックによって起こるというものである。
環境反応から学習する生物学的にインスパイアされた人工ニューラルネットワークを進化させる手法を評価する。
論文 参考訳(メタデータ) (2022-07-27T15:30:50Z) - The Introspective Agent: Interdependence of Strategy, Physiology, and
Sensing for Embodied Agents [51.94554095091305]
本論では, 環境の文脈において, 自己能力を考慮した内省的エージェントについて論じる。
自然と同じように、私たちは戦略を1つのツールとして再編成して、環境において成功させたいと考えています。
論文 参考訳(メタデータ) (2022-01-02T20:14:01Z) - Active Inference Tree Search in Large POMDPs [0.0]
POMDPsにおける新しい計画手法--Active Inference Tree Search (AcT)について紹介する。
AcTは、神経科学(Active Inference)における主要な計画理論の規範的性格と生物学的リアリズムと、AIにおける木探索法のスケーラビリティを組み合わせたものである。
シミュレーションの結果、AcTはサンプリングベース手法に挑戦する二分木、適応探索を必要とする問題、そしてAcTが最先端のPOMDPソリューションを再現する大規模POMDP問題「RockSample」をうまくナビゲートしていることがわかった。
論文 参考訳(メタデータ) (2021-03-25T14:17:09Z) - Task-Agnostic Morphology Evolution [94.97384298872286]
モルフォロジーと振る舞いを共同適用する現在のアプローチでは、特定のタスクの報酬をモルフォロジー最適化のシグナルとして使用します。
これはしばしば高価なポリシー最適化を必要とし、一般化するために構築されていないタスクに依存した形態をもたらす。
我々は,これらの問題を緩和するための新しいアプローチであるタスク非依存形態進化(tame)を提案する。
論文 参考訳(メタデータ) (2021-02-25T18:59:21Z) - Hierarchical principles of embodied reinforcement learning: A review [11.613306236691427]
すべての重要な認知メカニズムが独立した計算アーキテクチャで独立に実装されていることを示す。
我々は,より洗練された認知的インスパイアされた階層的手法の開発を導くことを期待する。
論文 参考訳(メタデータ) (2020-12-18T10:19:38Z) - Grounding Artificial Intelligence in the Origins of Human Behavior [0.0]
人工知能(AI)の最近の進歩は、オープンエンドのスキルのレパートリーを獲得できるエージェントの探求を復活させた。
人間行動生態学(HBE)の研究は、人間の自然を特徴づける行動が、我々の生態学的ニッチの構造に大きな変化に対する適応的な反応としてどのように考えられるかを理解することを目指している。
我々は,HBEの仮説と近年の強化学習(RL)への貢献に基づく,オープンエンドスキル獲得における環境複雑性の役割を強調する枠組みを提案する。
論文 参考訳(メタデータ) (2020-12-15T19:28:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。