論文の概要: LoRaConnect: Unlocking HTTP Potential on LoRa Backbones for Remote Areas and Ad-Hoc Networks
- arxiv url: http://arxiv.org/abs/2501.02469v1
- Date: Sun, 05 Jan 2025 07:41:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:07:31.997298
- Title: LoRaConnect: Unlocking HTTP Potential on LoRa Backbones for Remote Areas and Ad-Hoc Networks
- Title(参考訳): LoRaConnect: リモートエリアとアドホックネットワークのためのLoRaバックボーン上のHTTPポテンシャルのアンロック
- Authors: Atonu Ghosh, Sudip Misra,
- Abstract要約: LoRaネットワーク上でのWebアクセスを可能にするLoRaWebを提案する。
LoRaWebハードウェアは、クライアントデバイスが接続し、Webブラウザを使用してWebページにアクセスするWiFiホットスポットをテザリングする。
LoRaWebは、要求者と応答者の間の効果的なメッセージ交換の課題に対処するための同期手順を実装している。
- 参考スコア(独自算出の注目度): 26.152275462641168
- License:
- Abstract: The minimal infrastructure requirements of LoRa make it suitable for deployments in remote and disaster-stricken areas. Concomitantly, the modern era is witnessing the proliferation of web applications in all aspects of human life, including IoT and other network services. Contemporary IoT and network solutions heavily rely on web applications to render services. However, despite the recent research and development pivoted around LoRa, there is still a lack of studies focusing on web application access over LoRa networks. Specifically, technical challenges like payload size limitation, low data rate, and contentions in multi-user setups limit the applicability of LoRa for web applications. Hence, we propose LoRaWeb, which enables web access over LoRa networks. The LoRaWeb hardware tethers a WiFi hotspot to which the client devices connect and access the web pages using a web browser. LoRa backbone of the network handles the web page transmission from the requester and receiver devices. LoRaWeb implements a synchronization procedure to address the aforementioned challenges for effective message exchange between requesters and responders. The system implements a caching mechanism to reduce latency and contention. Additionally, it implements a message-slicing mechanism in the application layer to overcome the hardware limitations on the message length. The actual hardware-based implementation results indicate seamless deployment, and the results indicate an average access time of ~$0.95 S$ for a $1.5 KB$ and ~$6 S$ for a $10 KB$ size web page.
- Abstract(参考訳): LoRaの最小限のインフラストラクチャ要件は、リモートおよび災害に苦しむ領域でのデプロイメントに適している。
対照的に、現代的な時代は、IoTやその他のネットワークサービスを含む、人々の生活のあらゆる面において、Webアプリケーションが急増しているのを目撃している。
現代のIoTおよびネットワークソリューションは、サービスのレンダリングにWebアプリケーションに大きく依存している。
しかし、LoRaを中心にした最近の研究と開発にもかかわらず、LoRaネットワーク上でのWebアプリケーションアクセスに焦点を当てた研究はいまだに不足している。
具体的には、ペイロードサイズ制限、低データレート、マルチユーザセットアップにおける競合といった技術的な課題は、Webアプリケーションに対するLoRaの適用性を制限している。
そこで我々はLoRaネットワーク上でのWebアクセスを可能にするLoRaWebを提案する。
LoRaWebハードウェアは、クライアントデバイスが接続し、Webブラウザを使用してWebページにアクセスするWiFiホットスポットをテザリングする。
ネットワークのLoRaバックボーンは、要求者および受信者装置からのWebページ送信を処理する。
LoRaWebは、上記の課題に対処する同期手順を実装している。
このシステムは、レイテンシと競合を低減するキャッシュ機構を実装している。
さらに、メッセージ長のハードウェア制限を克服するために、アプリケーション層にメッセージスライシング機構を実装しています。
実際のハードウェアベースの実装結果はシームレスなデプロイを示しており、平均アクセス時間は1.5KB$が0.95Sドル、10KB$が6Sドルとなっている。
関連論文リスト
- AI Flow at the Network Edge [58.31090055138711]
AI Flowは、デバイス、エッジノード、クラウドサーバ間で利用可能な異種リソースを共同で活用することで、推論プロセスを合理化するフレームワークである。
この記事では、AI Flowのモチベーション、課題、原則を特定するためのポジションペーパーとして機能する。
論文 参考訳(メタデータ) (2024-11-19T12:51:17Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - FrankenSplit: Efficient Neural Feature Compression with Shallow Variational Bottleneck Injection for Mobile Edge Computing [5.815300670677979]
資源依存型圧縮モデルのための新しいフレームワークを導入し,非対称環境下での手法を広範囲に評価する。
提案手法は精度を低下させることなく最先端のSC法よりも60%低く,既存の標準のオフロードよりも16倍高速である。
論文 参考訳(メタデータ) (2023-02-21T14:03:22Z) - Reinforcement Learning Framework for Server Placement and Workload
Allocation in Multi-Access Edge Computing [9.598394554018164]
本稿では,最小コストでMEC設計を実現するために,ネットワーク遅延とエッジサーバ数の両方を最小化する問題に対処する。
本稿では,この問題を解決するためのマルコフ決定プロセス(MDP)の設計において,状態空間,行動空間,ペナルティ関数の効率的な表現とモデル化を行う新しいRLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-21T03:04:50Z) - A Study of Designing Compact Audio-Visual Wake Word Spotting System
Based on Iterative Fine-Tuning in Neural Network Pruning [57.28467469709369]
視覚情報を利用した小型音声覚醒単語スポッティング(WWS)システムの設計について検討する。
繰り返し微調整方式(LTH-IF)で抽選券仮説を通したニューラルネットワークプルーニング戦略を導入する。
提案システムでは,ノイズ条件の異なる単一モード(オーディオのみ,ビデオのみ)システムに対して,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-17T08:26:25Z) - No Size Fits All: Automated Radio Configuration for LPWANs [5.7224176761305]
LoRaのような低消費電力の長距離ネットワークは、IoTデプロイメントの主流になりつつある。
私たちは、ネットワークデバイスが選択したデータレートで送信できるように、別のアプローチを提案します。
私たちのゲートウェイ設計であるProteusは、ニューラルネットワークアーキテクチャを実行しており、既存のLoRaプロトコルと後方互換性があります。
論文 参考訳(メタデータ) (2021-09-10T20:45:03Z) - DeepRT: A Soft Real Time Scheduler for Computer Vision Applications on
the Edge [17.725750510361884]
本稿では,データに対する推論を行うソフトリアルタイム要求を行うアプリケーションについて述べる。
DeepRTは、システム全体のスループットを高く保ちながら、要求に遅延を保証する。
評価の結果,DeepRTは納期ミス数やスループットの点で最先端の作業よりも優れていた。
論文 参考訳(メタデータ) (2021-05-05T00:08:17Z) - Optimizing Resource-Efficiency for Federated Edge Intelligence in IoT
Networks [96.24723959137218]
We study a edge intelligence-based IoT network that a set of edge server learn a shared model using federated learning (FL)。
フェデレーションエッジインテリジェンス(FEI)と呼ばれる新しいフレームワークを提案し、エッジサーバがIoTネットワークのエネルギーコストに応じて必要なデータサンプル数を評価できるようにする。
提案アルゴリズムがIoTネットワークのトポロジ的情報を漏洩したり開示したりしないことを示す。
論文 参考訳(メタデータ) (2020-11-25T12:51:59Z) - LC-NAS: Latency Constrained Neural Architecture Search for Point Cloud
Networks [73.78551758828294]
LC-NASは、最小計算コストでポイントクラウド分類のための最先端アーキテクチャを見つけることができる。
検索したアーキテクチャが、適度に低い精度で、望ましいレイテンシを実現する方法を示します。
論文 参考訳(メタデータ) (2020-08-24T10:30:21Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。