論文の概要: Efficient Partitioning Method of Large-Scale Public Safety
Spatio-Temporal Data based on Information Loss Constraints
- arxiv url: http://arxiv.org/abs/2306.12857v2
- Date: Fri, 30 Jun 2023 02:16:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 14:52:39.050531
- Title: Efficient Partitioning Method of Large-Scale Public Safety
Spatio-Temporal Data based on Information Loss Constraints
- Title(参考訳): 情報損失制約に基づく大規模公共安全時空間データの効率的な分割方法
- Authors: Jie Gao, Yawen Li, Zhe Xue, and Zeli Guan
- Abstract要約: 本稿では,情報損失制約(IFL-LSTP)に基づく大規模公共安全データ-時間分割手法を提案する。
IFL-LSTPモデルは、ストレージの精度を維持しながらデータのスケールを大幅に削減し、効率を向上させる。
- 参考スコア(独自算出の注目度): 7.194747454324381
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The storage, management, and application of massive spatio-temporal data are
widely applied in various practical scenarios, including public safety.
However, due to the unique spatio-temporal distribution characteristics of
re-al-world data, most existing methods have limitations in terms of the
spatio-temporal proximity of data and load balancing in distributed storage.
There-fore, this paper proposes an efficient partitioning method of large-scale
public safety spatio-temporal data based on information loss constraints
(IFL-LSTP). The IFL-LSTP model specifically targets large-scale spatio-temporal
point da-ta by combining the spatio-temporal partitioning module (STPM) with
the graph partitioning module (GPM). This approach can significantly reduce the
scale of data while maintaining the model's accuracy, in order to improve the
partitioning efficiency. It can also ensure the load balancing of distributed
storage while maintaining spatio-temporal proximity of the data partitioning
results. This method provides a new solution for distributed storage of
mas-sive spatio-temporal data. The experimental results on multiple real-world
da-tasets demonstrate the effectiveness and superiority of IFL-LSTP.
- Abstract(参考訳): 大規模な時空間データの保管、管理、適用は、公共の安全を含む様々な実践シナリオに広く適用されている。
しかし,re-al-worldデータの時空間分布特性から,既存の手法では,データの時空間的近接や分散ストレージにおける負荷分散が制限されている。
本稿では,情報損失制約(IFL-LSTP)に基づく大規模公共安全時空間データの効率的な分割手法を提案する。
IFL-LSTPモデルは、時空間分割モジュール(STPM)とグラフ分割モジュール(GPM)を組み合わせた大規模時空間点da-taを特にターゲットとしている。
このアプローチは、パーティショニング効率を改善するために、モデルの精度を維持しながらデータのスケールを大幅に削減することができる。
また、データパーティショニング結果の時空間的近接を維持しながら、分散ストレージのロードバランシングを確保することもできる。
本手法は,仮設時空間データの分散ストレージのための新しいソリューションを提供する。
複数の実世界のda-tasetに対する実験結果は、IFL-LSTPの有効性と優位性を示している。
関連論文リスト
- CaBaFL: Asynchronous Federated Learning via Hierarchical Cache and Feature Balance [23.125185494897522]
有望な分散機械学習パラダイムとしてのフェデレートラーニング(FL)は、AIoT(Artificial Intelligence of Things)アプリケーションで広く採用されている。
FLの効率性と推論能力は、トラグラーの存在と大規模なAIoTデバイス間のデータの不均衡により、著しく制限されている。
本稿では,階層型キャッシュベースのアグリゲーション機構と機能バランス誘導型デバイス選択戦略を含む,CaBaFLという新しいFLアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-19T12:39:11Z) - F$^3$Loc: Fusion and Filtering for Floorplan Localization [63.28504055661646]
本研究では,フロアプラン内での自己ローカライズのための効率的なデータ駆動型ソリューションを提案する。
本手法では,地図や位置情報ごとのリトレーニングや,関心領域の画像の大規模なデータベースの要求は不要である。
論文 参考訳(メタデータ) (2024-03-05T23:32:26Z) - Measurement Simplification in \rho-POMDP with Performance Guarantees [7.241667195519011]
不確実性の下での意思決定は、不完全な情報で行動する自律システムの中心にある。
本稿では,高次元観測空間を分割することで,効率的な意思決定手法を提案する。
境界は適応的で、計算効率が良く、元の解に収束していることが示される。
論文 参考訳(メタデータ) (2023-09-19T15:40:42Z) - Spatio-temporal Diffusion Point Processes [23.74522530140201]
パティオ・テンポラル・ポイント・プロセス(英: patio-temporal point process、STPP)は、時間と空間を伴うイベントの集合である。
結合分布のモデル化に失敗すると、与えられた事象の過去の時間的相互作用を特徴づける能力は限られる。
複雑な時空間の関節分布を学習する新しいパラメータ化フレームワークを提案する。
我々のフレームワークは最先端のベースラインを著しく上回り、平均50%以上の改善がなされています。
論文 参考訳(メタデータ) (2023-05-21T08:53:00Z) - Dynamic Scheduling for Federated Edge Learning with Streaming Data [56.91063444859008]
我々は,長期的エネルギー制約のある分散エッジデバイスにおいて,トレーニングデータを時間とともにランダムに生成するフェデレーションエッジ学習(FEEL)システムを検討する。
限られた通信リソースとレイテンシ要件のため、各イテレーションでローカルトレーニングプロセスに参加するのはデバイスのサブセットのみである。
論文 参考訳(メタデータ) (2023-05-02T07:41:16Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
FedLAP-DPは、フェデレーション学習のための新しいプライバシー保護アプローチである。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Improving information retention in large scale online continual learning [99.73847522194549]
オンライン連続学習は、既存の知識を維持しながら、新しいデータに効率的に適応することを目的としている。
最近の研究は、リプレイバッファが無制限であっても、大規模なOCLでは情報保持が問題であり続けていることを示唆している。
非定常目標に対する最適化を改善するため,移動平均の手法群を提案する。
論文 参考訳(メタデータ) (2022-10-12T16:59:43Z) - Depersonalized Federated Learning: Tackling Statistical Heterogeneity by
Alternating Stochastic Gradient Descent [6.394263208820851]
フェデレート・ラーニング(FL)は、デバイスがデータ共有なしでインテリジェントな推論のために共通の機械学習(ML)モデルをトレーニングすることを可能にする。
様々な共役者によって保持される生データは、常に不特定に分散される。
本稿では,このプロセスのデスピードにより統計的に大幅に最適化できる新しいFLを提案する。
論文 参考訳(メタデータ) (2022-10-07T10:30:39Z) - Distributed Dynamic Safe Screening Algorithms for Sparse Regularization [73.85961005970222]
本稿では,分散動的安全スクリーニング(DDSS)手法を提案し,共有メモリアーキテクチャと分散メモリアーキテクチャにそれぞれ適用する。
提案手法は, 線形収束率を低次複雑度で達成し, 有限個の繰り返しにおいてほとんどすべての不活性な特徴をほぼ確実に除去できることを示す。
論文 参考訳(メタデータ) (2022-04-23T02:45:55Z) - ParK: Sound and Efficient Kernel Ridge Regression by Feature Space
Partitions [34.576469570537995]
本稿では,カーネルリッジ回帰のための大規模解法であるParKを紹介する。
提案手法では,分割とランダムなプロジェクションと繰り返し最適化を組み合わせることで,空間と時間の複雑さを低減できる。
論文 参考訳(メタデータ) (2021-06-23T08:24:36Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。