論文の概要: OPTIC-ER: A Reinforcement Learning Framework for Real-Time Emergency Response and Equitable Resource Allocation in Underserved African Communities
- arxiv url: http://arxiv.org/abs/2508.12943v1
- Date: Mon, 18 Aug 2025 14:19:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.370852
- Title: OPTIC-ER: A Reinforcement Learning Framework for Real-Time Emergency Response and Equitable Resource Allocation in Underserved African Communities
- Title(参考訳): OPTIC-ER:アフリカにおけるリアルタイム緊急対応と適切な資源配分のための強化学習フレームワーク
- Authors: Mary Tonwe,
- Abstract要約: 本稿では,リアルタイム,適応型,公平な緊急応答のための強化学習フレームワークOPTIC-ERを紹介する。
OPTIC-ERは、ディスパッチ環境の複雑さを管理するために注意誘導型アクタークリティカルアーキテクチャを使用する。
その重要なイノベーションは、アクションのサブ最適性を符号化するContext-Rich State Vectorと、非効率性を罰するPrecision Reward Functionである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Public service systems in many African regions suffer from delayed emergency response and spatial inequity, causing avoidable suffering. This paper introduces OPTIC-ER, a reinforcement learning (RL) framework for real-time, adaptive, and equitable emergency response. OPTIC-ER uses an attention-guided actor-critic architecture to manage the complexity of dispatch environments. Its key innovations are a Context-Rich State Vector, encoding action sub-optimality, and a Precision Reward Function, which penalizes inefficiency. Training occurs in a high-fidelity simulation using real data from Rivers State, Nigeria, accelerated by a precomputed Travel Time Atlas. The system is built on the TALS framework (Thin computing, Adaptability, Low-cost, Scalability) for deployment in low-resource settings. In evaluations on 500 unseen incidents, OPTIC-ER achieved a 100.00% optimality rate with negligible inefficiency, confirming its robustness and generalization. Beyond dispatch, the system generates Infrastructure Deficiency Maps and Equity Monitoring Dashboards to guide proactive governance and data-informed development. This work presents a validated blueprint for AI-augmented public services, showing how context-aware RL can bridge the gap between algorithmic decision-making and measurable human impact.
- Abstract(参考訳): 多くのアフリカ地域の公共サービスシステムは、遅延した緊急対応と空間的不平等に悩まされ、回避可能な苦痛を引き起こしている。
本稿では,リアルタイム,適応的,公平な緊急応答のための強化学習(RL)フレームワークであるOPTIC-ERを紹介する。
OPTIC-ERは、ディスパッチ環境の複雑さを管理するために注意誘導型アクタークリティカルアーキテクチャを使用する。
その重要なイノベーションは、アクションのサブ最適性を符号化するContext-Rich State Vectorと、非効率性を罰するPrecision Reward Functionである。
トレーニングは、ナイジェリアのリバーズステートの実際のデータを用いて、事前計算されたトラベルタイム・アトラスによって加速された高忠実度シミュレーションで実施される。
このシステムは、低リソース環境にデプロイするためのTALSフレームワーク(Thin Computing, Adaptability, Low-cost, Scalability)上に構築されている。
500件の評価において、OPTIC-ERは無視できない非効率で100.00%の最適性を達成し、その堅牢性と一般化を確認した。
ディスパッチ以外にも、システムは、積極的なガバナンスとデータインフォームド開発をガイドするために、インフラストラクチャ障害マップとEquity Monitoring Dashboardを生成する。
この研究は、AIに強化された公共サービスのための検証済みの青写真を示し、文脈対応のRLが、アルゴリズムによる意思決定と測定可能な人間の影響の間のギャップをいかに埋めるかを示している。
関連論文リスト
- FairDRL-ST: Disentangled Representation Learning for Fair Spatio-Temporal Mobility Prediction [7.126500197418756]
ディープ・テンポラル・ニューラルネットワークは、都市コンピューティングの文脈でますます活用されている。
本稿では,不整合表現学習に基づく新たなフレームワークであるFairDRL-STを提案する。
敵対的学習と非絡み合った表現学習を活用することで、フレームワークは機密情報を含む属性を分離することを学ぶ。
論文 参考訳(メタデータ) (2025-08-11T00:36:19Z) - Efficient VoIP Communications through LLM-based Real-Time Speech Reconstruction and Call Prioritization for Emergency Services [0.0]
緊急通信システムは、パケット損失、帯域制限、信号品質の低下、遅延、VoIPシステムのジッタによる破壊に直面している。
苦悩の被害者はしばしば、パニック、発声障害、背景雑音による重要な情報を伝えるのに苦労する。
本稿では,不完全な音声を再構成し,文脈的ギャップを埋め,重大度に基づく呼の優先順位付けを行うことにより,これらの課題に対処するためにLarge Language Models(LLMs)を活用することを提案する。
論文 参考訳(メタデータ) (2024-12-09T17:22:40Z) - Vision-Based Deep Reinforcement Learning of UAV Autonomous Navigation Using Privileged Information [6.371251946803415]
DPRLは、部分的に観測可能な環境下での高速無人無人飛行の課題に対処するために設計されたエンドツーエンドのポリシーである。
非対称なアクター・クライブアーキテクチャを利用して、トレーニング中にエージェントに特権情報を提供する。
我々は、DPRLアルゴリズムを最先端のナビゲーションアルゴリズムと比較し、様々なシナリオにまたがって広範なシミュレーションを行う。
論文 参考訳(メタデータ) (2024-12-09T09:05:52Z) - A Graph-based Adversarial Imitation Learning Framework for Reliable & Realtime Fleet Scheduling in Urban Air Mobility [5.19664437943693]
本稿では,艦隊スケジューリング問題の包括的最適化について述べる。
また、代替ソリューションのアプローチの必要性も認識している。
新しい模倣アプローチは、目に見えない最悪のシナリオにおいて、パフォーマンスと顕著な改善を実現する。
論文 参考訳(メタデータ) (2024-07-16T18:51:24Z) - Adaptive Resource Allocation for Virtualized Base Stations in O-RAN with Online Learning [55.08287089554127]
基地局(vBS)を備えたオープンラジオアクセスネットワークシステムは、柔軟性の向上、コスト削減、ベンダーの多様性、相互運用性のメリットを提供する。
本研究では,予期せぬ「混み合う」環境下であっても,効率的なスループットとvBSエネルギー消費のバランスをとるオンライン学習アルゴリズムを提案する。
提案手法は, 課題のある環境においても, 平均最適性ギャップをゼロにすることで, サブ線形後悔を実現する。
論文 参考訳(メタデータ) (2023-09-04T17:30:21Z) - Actively Learning Costly Reward Functions for Reinforcement Learning [56.34005280792013]
複雑な実世界の環境でエージェントを訓練することは、桁違いに高速であることを示す。
強化学習の手法を新しい領域に適用することにより、興味深く非自明な解を見つけることができることを示す。
論文 参考訳(メタデータ) (2022-11-23T19:17:20Z) - FIRE: A Failure-Adaptive Reinforcement Learning Framework for Edge Computing Migrations [52.85536740465277]
FIREは、エッジコンピューティングのディジタルツイン環境でRLポリシーをトレーニングすることで、まれなイベントに適応するフレームワークである。
ImREは重要なサンプリングに基づくQ-ラーニングアルゴリズムであり、希少事象をその値関数への影響に比例してサンプリングする。
FIREは故障時にバニラRLやグリーディベースラインと比較してコストを削減できることを示す。
論文 参考訳(メタデータ) (2022-09-28T19:49:39Z) - Path Design and Resource Management for NOMA enhanced Indoor Intelligent
Robots [58.980293789967575]
通信可能な屋内知的ロボット(IR)サービスフレームワークを提案する。
室内レイアウトとチャネル状態を決定論的に記述できるレゴモデリング手法が提案されている。
調査対象の無線マップは、強化学習エージェントを訓練するための仮想環境として呼び出される。
論文 参考訳(メタデータ) (2020-11-23T21:45:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。