論文の概要: Reinforcement learning for pursuit and evasion of microswimmers at low
Reynolds number
- arxiv url: http://arxiv.org/abs/2106.08609v1
- Date: Wed, 16 Jun 2021 08:08:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-27 09:06:19.924132
- Title: Reinforcement learning for pursuit and evasion of microswimmers at low
Reynolds number
- Title(参考訳): 低レイノルズ数におけるマイクロスイマーの追跡と回避のための強化学習
- Authors: Francesco Borra and Luca Biferale and Massimo Cencini and Antonio
Celani
- Abstract要約: 我々は,低レイノルズ数環境に浸漬しながら,追従回避作業に従事した2人のマイクロスウィマーのモデルを考える。
強化学習によってプレイヤーは、非自明に流体力学環境を利用する、効率的かつ物理的に説明可能な戦略を見出す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aquatic organisms can use hydrodynamic cues to navigate, find their preys and
escape from predators. We consider a model of two competing microswimmers
engaged in a pursue-evasion task while immersed in a low-Reynolds-number
environment. The players have limited abilities: they can only sense
hydrodynamic disturbances, which provide some cue about the opponent's
position, and perform simple manoeuvres. The goal of the pursuer is to
capturethe evader in the shortest possible time. Conversely the evader aims at
deferring capture as much as possible. We show that by means of Reinforcement
Learning the players find efficient and physically explainable strategies which
non-trivially exploit the hydrodynamic environment. This Letter offers a
proof-of-concept for the use of Reinforcement Learning to discover
prey-predator strategies in aquatic environments, with potential applications
to underwater robotics.
- Abstract(参考訳): 水生生物は水力学的な手がかりを使って遊泳し、獲物を見つけ、捕食者から逃げ出すことができる。
我々は,低レイノルズ数環境において,追従回避作業に従事した2人のマイクロスウィマーのモデルを考える。
プレイヤーは限られた能力を持ち、流体力学の障害を感知するだけで相手の位置に関する手がかりを与え、単純な操作を行うことができる。
追跡者の目標は、最も短い時間で脱出者を捕まえることである。
逆に、回避者はできるだけ捕獲を遅らせることを目指している。
強化学習によってプレイヤーは非自明に水力学環境を利用する効率的かつ物理的に説明可能な戦略を見つける。
この書簡は、強化学習を使って水中環境における捕食者戦略を発見し、水中ロボティクスに応用する可能性を示す概念実証を提供する。
関連論文リスト
- Deep reinforcement learning for tracking a moving target in jellyfish-like swimming [16.727471388063893]
本研究では,ゼリーフィッシュのようなスイマーを訓練し,運動目標を二次元の流れで追跡する深層強化学習法を開発した。
深層Qネットワーク(DQN)を用いて,スイマーの幾何と動的パラメータを入力とし,スイマーに適用される力である動作を出力する。
論文 参考訳(メタデータ) (2024-09-13T13:29:46Z) - Learning to Play Air Hockey with Model-Based Deep Reinforcement Learning [0.0]
本研究では,エアホッケーを自律的に行うためのモデルベース深層強化学習の適用性について検討する。
我々のエージェントは、時間とともに反復的に行動を改善するために自己プレイを取り入れながら、まばらな報酬からのみ学習する。
エージェントは、単一のプレイスタイルに対してのみ訓練された場合、過度に適合する傾向にあり、目に見えない相手の新たな戦略を一般化するための自己プレイの重要性を強調している。
論文 参考訳(メタデータ) (2024-06-01T18:00:01Z) - Diving with Penguins: Detecting Penguins and their Prey in Animal-borne
Underwater Videos via Deep Learning [6.468147948798321]
アフリカ産ペンギン(Spheniscus demersus)は絶滅危惧種である。
水中での狩猟とそれに伴う捕食の成功率についてはほとんど知られていない。
現代のバイオロギング技術は、貴重な洞察を提供する可能性がある。
動物によるペンギンの水中ビデオデータセットを公開し、準備の整った深層学習システムを導入する。
論文 参考訳(メタデータ) (2023-08-14T16:50:27Z) - Towards Battery-Free Machine Learning and Inference in Underwater
Environments [8.010816130725633]
水中環境下では電池不要の推論が可能であることを示す。
我々は水中の音からエネルギーを回収し、超低消費電力のマイクロコントローラとオンボードセンサーを駆動する装置を設計した。
実験では、エミュレートされた海洋生物音響学のアプリケーションを用いて、水中の動物の音を電池なしで認識できることを実証した。
論文 参考訳(メタデータ) (2022-02-16T16:26:02Z) - Information is Power: Intrinsic Control via Information Capture [110.3143711650806]
我々は,潜時状態空間モデルを用いて推定したエージェントの状態訪問のエントロピーを最小化する,コンパクトで汎用的な学習目的を論じる。
この目的は、不確実性の低減に対応する環境情報収集と、将来の世界状態の予測不可能性の低減に対応する環境制御の両方をエージェントに誘導する。
論文 参考訳(メタデータ) (2021-12-07T18:50:42Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Robust Reinforcement Learning Under Minimax Regret for Green Security [50.03819244940543]
グリーン・セキュリティ・ドメインは、密猟者、違法なロガー、違法な漁師の敵対行動の不確実さに直面してパトロールを計画する被告を特徴としている。
文献では検討されていないミニマックスの後悔基準に従って,グリーンセキュリティのための堅牢なシーケンシャルパトロール計画に着目する。
対戦行動のパラメータ値を制御するディフェンダーと自然のゲームとしてこの問題を定式化し,ロバストなポリシーを見つけるアルゴリズムMIRRORを設計する。
論文 参考訳(メタデータ) (2021-06-15T20:11:12Z) - Learning swimming escape patterns under energy constraints [6.014777261874645]
流れシミュレーションは、天然の幼生スイマーで観察されたものと一致する脱出パターンを特定した。
エネルギー制約下でスイマー脱出パターンを発見するために強化学習を展開する。
論文 参考訳(メタデータ) (2021-05-03T11:58:37Z) - Deep Model Intellectual Property Protection via Deep Watermarking [122.87871873450014]
ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
低レベルのコンピュータビジョンや画像処理タスクで訓練されたディープネットワークを保護するための新しいモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T18:58:21Z) - Learning Affordance Landscapes for Interaction Exploration in 3D
Environments [101.90004767771897]
エージェントは環境の仕組みを習得できなければならない。
相互作用探索のための強化学習手法を提案する。
AI2-iTHORで私たちのアイデアを実証します。
論文 参考訳(メタデータ) (2020-08-21T00:29:36Z) - Learning Agile Locomotion via Adversarial Training [59.03007947334165]
本稿では,四足歩行ロボット(主人公)が他のロボット(敵)を追いかけるのを学習し,後者が逃げることを学習するマルチエージェント学習システムを提案する。
この敵対的なトレーニングプロセスは、アジャイルの振る舞いを促進するだけでなく、退屈な環境設計の努力を効果的に軽減します。
1つの敵のみを使用した以前の作品とは対照的に、異なる逃走戦略を専門とする敵のアンサンブルを訓練することは、主人公がアジリティを習得するために不可欠である。
論文 参考訳(メタデータ) (2020-08-03T01:20:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。