論文の概要: Optimizing Attention and Cognitive Control Costs Using Temporally-Layered Architectures
- arxiv url: http://arxiv.org/abs/2305.18701v3
- Date: Wed, 30 Oct 2024 22:38:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 16:56:32.607886
- Title: Optimizing Attention and Cognitive Control Costs Using Temporally-Layered Architectures
- Title(参考訳): 時間階層アーキテクチャによる注意・認知制御コストの最適化
- Authors: Devdhar Patel, Terrence Sejnowski, Hava Siegelmann,
- Abstract要約: 生物学的制御は、計算エネルギー支出と決定頻度を最適化しながら、顕著な性能を達成する。
我々は,強化学習環境においてエージェントが利用できる決定数や計算エネルギーを制限する決定境界マルコフ決定プロセス(DB-MDP)を提案する。
生物学的に着想を得たTLA(Temporally Layered Architecture)を導入し、エージェントが時間スケールとエネルギー要求の異なる2つの層を通じて計算コストを管理できるようにする。
- 参考スコア(独自算出の注目度): 0.9831489366502302
- License:
- Abstract: The current reinforcement learning framework focuses exclusively on performance, often at the expense of efficiency. In contrast, biological control achieves remarkable performance while also optimizing computational energy expenditure and decision frequency. We propose a Decision Bounded Markov Decision Process (DB-MDP), that constrains the number of decisions and computational energy available to agents in reinforcement learning environments. Our experiments demonstrate that existing reinforcement learning algorithms struggle within this framework, leading to either failure or suboptimal performance. To address this, we introduce a biologically-inspired, Temporally Layered Architecture (TLA), enabling agents to manage computational costs through two layers with distinct time scales and energy requirements. TLA achieves optimal performance in decision-bounded environments and in continuous control environments, it matches state-of-the-art performance while utilizing a fraction of the compute cost. Compared to current reinforcement learning algorithms that solely prioritize performance, our approach significantly lowers computational energy expenditure while maintaining performance. These findings establish a benchmark and pave the way for future research on energy and time-aware control.
- Abstract(参考訳): 現在の強化学習フレームワークは、しばしば効率を犠牲にして、パフォーマンスのみに重点を置いている。
対照的に、生物学的制御は、計算エネルギー支出と決定頻度を最適化しながら、顕著な性能を達成する。
我々は,強化学習環境においてエージェントが利用できる決定数や計算エネルギーを制限する決定境界マルコフ決定プロセス(DB-MDP)を提案する。
我々の実験は、既存の強化学習アルゴリズムがこのフレームワーク内で苦労していることを示す。
これを解決するために,生物学的に着想を得たTLA(Temporally Layered Architecture)を導入し,エージェントが時間スケールとエネルギー要求の異なる2層を通じて計算コストを管理できるようにする。
TLAは、決定バウンド環境および連続制御環境において、計算コストのごく一部を利用して、最先端の性能と最適な性能を達成する。
性能のみを優先する現在の強化学習アルゴリズムと比較して,本手法は性能を維持しながら計算エネルギー支出を大幅に削減する。
これらの結果はベンチマークを確立し、将来のエネルギーと時間認識制御の研究の道を開く。
関連論文リスト
- Reinforcement Learning for Intensity Control: An Application to Choice-Based Network Revenue Management [8.08366903467967]
我々は、選択に基づくネットワーク収益管理を用いた強化学習フレームワークを強化制御に適用する。
ジャンプポイントによって生成されたサンプルパスの固有な離散化を利用することで、事前に時間的地平線を識別する必要がないことを示す。
論文 参考訳(メタデータ) (2024-06-08T05:27:01Z) - Energy-Efficient Federated Edge Learning with Streaming Data: A Lyapunov Optimization Approach [34.00679567444125]
本研究では,長期エネルギー制約下でのデータ到着や資源の可利用性に固有のランダム性に対処する動的スケジューリングと資源割当アルゴリズムを開発した。
提案アルゴリズムは, デバイススケジューリング, 計算容量調整, 帯域幅の割り当ておよび各ラウンドの送信電力を適応的に決定する。
本手法の有効性をシミュレーションにより検証し,ベースライン方式と比較して学習性能とエネルギー効率が向上したことを示す。
論文 参考訳(メタデータ) (2024-05-20T14:13:22Z) - Switchable Decision: Dynamic Neural Generation Networks [98.61113699324429]
本稿では,各データインスタンスのリソースを動的に割り当てることで,推論を高速化するスイッチブルな決定を提案する。
提案手法は, 同一の精度を維持しながら, 推論時のコスト低減に有効である。
論文 参考訳(メタデータ) (2024-05-07T17:44:54Z) - Growing Q-Networks: Solving Continuous Control Tasks with Adaptive Control Resolution [51.83951489847344]
ロボット工学の応用において、スムーズな制御信号はシステム摩耗とエネルギー効率を減らすために一般的に好まれる。
本研究では,離散的な動作空間を粗い状態から細かい制御分解能まで拡大することにより,この性能ギャップを埋めることを目的とする。
我々の研究は、値分解とアダプティブ・コントロール・リゾリューションが組み合わさることで、単純な批判のみのアルゴリズムが得られ、連続制御タスクにおいて驚くほど高い性能が得られることを示唆している。
論文 参考訳(メタデータ) (2024-04-05T17:58:37Z) - Computation-efficient Deep Learning for Computer Vision: A Survey [121.84121397440337]
ディープラーニングモデルは、さまざまな視覚的知覚タスクにおいて、人間レベルのパフォーマンスに到達または超えた。
ディープラーニングモデルは通常、重要な計算資源を必要とし、現実のシナリオでは非現実的な電力消費、遅延、または二酸化炭素排出量につながる。
新しい研究の焦点は計算効率のよいディープラーニングであり、推論時の計算コストを最小限に抑えつつ、良好な性能を達成することを目指している。
論文 参考訳(メタデータ) (2023-08-27T03:55:28Z) - A Comparative Study of Machine Learning Algorithms for Anomaly Detection
in Industrial Environments: Performance and Environmental Impact [62.997667081978825]
本研究は,環境の持続可能性を考慮した高性能機械学習モデルの要求に応えることを目的としている。
Decision TreesやRandom Forestsといった従来の機械学習アルゴリズムは、堅牢な効率性とパフォーマンスを示している。
しかし, 資源消費の累積増加にもかかわらず, 最適化された構成で優れた結果が得られた。
論文 参考訳(メタデータ) (2023-07-01T15:18:00Z) - Sustainable AIGC Workload Scheduling of Geo-Distributed Data Centers: A
Multi-Agent Reinforcement Learning Approach [48.18355658448509]
生成的人工知能の最近の進歩は、機械学習トレーニングの需要が急増し、エネルギー消費の大幅な増加によるコスト負担と環境問題を引き起こしている。
地理的に分散したクラウドデータセンタ間でのトレーニングジョブのスケジューリングは、安価で低炭素エネルギーのコンピューティング能力の使用を最適化する機会を浮き彫りにする。
本研究では,実生活におけるワークロードパターン,エネルギー価格,炭素強度を組み込んだクラウドシステムと対話することで,マルチエージェント強化学習とアクタクリティカルな手法に基づく最適協調スケジューリング戦略の学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-17T02:12:30Z) - Coverage and Capacity Optimization in STAR-RISs Assisted Networks: A
Machine Learning Approach [102.00221938474344]
再構成可能なインテリジェントサーフェス (STAR-RIS) アシストネットワークを同時に送信および反射するカバレッジとキャパシティ最適化のための新しいモデルを提案する。
損失関数ベースの更新戦略はコアポイントであり、各更新時にmin-normソルバによってカバレッジとキャパシティの両方の損失関数の重みを計算することができる。
解析結果から,提案手法は固定重みに基づくMOアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-04-13T13:52:22Z) - Reinforcement Learning-Based Coverage Path Planning with Implicit
Cellular Decomposition [5.2424255020469595]
本稿では,カバレッジ問題を体系的に解析し,最適な停止時間問題として定式化する。
本研究では,強化学習に基づくアルゴリズムが,未知の屋内環境を効果的にカバーしていることを示す。
論文 参考訳(メタデータ) (2021-10-18T05:18:52Z) - Dynamic Scheduling for Over-the-Air Federated Edge Learning with Energy
Constraints [44.311278843238675]
アナログ勾配アグリゲーションを用いた空対空FEELシステムについて検討する。
トレーニング性能を最適化するために,エネルギーを考慮した動的デバイススケジューリングアルゴリズムを提案する。
高度に不均衡なローカルデータ分布の下では、提案アルゴリズムは精度を4.9%向上させることができる。
論文 参考訳(メタデータ) (2021-05-31T08:55:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。