論文の概要: Two Teachers Better Than One: Hardware-Physics Co-Guided Distributed Scientific Machine Learning
- arxiv url: http://arxiv.org/abs/2603.09032v1
- Date: Tue, 10 Mar 2026 00:07:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:23.905016
- Title: Two Teachers Better Than One: Hardware-Physics Co-Guided Distributed Scientific Machine Learning
- Title(参考訳): 2人の教師が1人より優れている: ハードウェア・物理学の共同指導型分散科学機械学習
- Authors: Yuchen Yuan, Junhuan Yang, Hao Wan, Yipei Liu, Hanhan Wu, Youzuo Lin, Lei Yang,
- Abstract要約: ハードウェアと物理を併用した分散SciMLフレームワークEPICを紹介する。
EPLは、エンドデバイス上で軽量なローカライズエンコーディングと、中央ノードで物理を意識したデコーディングを実行する。
EPLはレイテンシを8.9$times$と通信エネルギーを33.8$times$に減らし、さらに10データセット中8データセットの再構成精度も改善している。
- 参考スコア(独自算出の注目度): 11.332264911928869
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scientific machine learning (SciML) is increasingly applied to in-field processing, controlling, and monitoring; however, wide-area sensing, real-time demands, and strict energy and reliability constraints make centralized SciML implementation impractical. Most SciML models assume raw data aggregation at a central node, incurring prohibitively high communication latency and energy costs; yet, distributing models developed for general-purpose ML often breaks essential physical principles, resulting in degraded performance. To address these challenges, we introduce EPIC, a hardware- and physics-co-guided distributed SciML framework, using full-waveform inversion (FWI) as a representative task. EPIC performs lightweight local encoding on end devices and physics-aware decoding at a central node. By transmitting compact latent features rather than high-volume raw data and by using cross-attention to capture inter-receiver wavefield coupling, EPIC significantly reduces communication cost while preserving physical fidelity. Evaluated on a distributed testbed with five end devices and one central node, and across 10 datasets from OpenFWI, EPIC reduces latency by 8.9$\times$ and communication energy by 33.8$\times$, while even improving reconstruction fidelity on 8 out of 10 datasets.
- Abstract(参考訳): 科学機械学習(SciML)は、フィールド内での処理、制御、監視にますます応用されているが、広域センシング、リアルタイム要求、厳密なエネルギーと信頼性の制約により、SciMLの実装は実用的ではない。
ほとんどのSciMLモデルは、中央ノードで生のデータ集約を前提としており、通信遅延とエネルギーコストが極めて高い。
これらの課題に対処するため,ハードウェアと物理を併用した分散SciMLフレームワークEPICを導入し,フルウェーブフォーム・インバージョン(FWI)を代表課題とする。
EPICは、エンドデバイス上で軽量なローカライズエンコーディングを実行し、中央ノードで物理を意識したデコーディングを行う。
高体積の原データではなく、コンパクトな潜伏特性を伝達し、クロスアテンションを用いて受信者間波動の結合を捕捉することにより、EPICは物理的忠実性を保ちながら通信コストを著しく低減する。
5つのエンドデバイスと1つの中央ノードを備えた分散テストベッドで評価され、OpenFWIから10データセットにわたってEPICは、レイテンシを8.9$\times$と通信エネルギーを33.8$\times$に削減し、一方で10データセット中8データセットの再構築精度も改善した。
関連論文リスト
- Physics-Informed Neural Networks with Architectural Physics Embedding for Large-Scale Wave Field Reconstruction [8.953088273349499]
物理情報ニューラルネットワーク(PINN)は、物理原理を機械学習モデルに統合する。
PINNは損失関数のみに物理原理を組み込むため、収束が遅くなり、安定性が最適化され、スペクトルバイアスが生じる。
この研究は、ニューラルネットワークアーキテクチャに直接追加の物理ガイダンスを統合するアーキテクチャ物理学組み込み(PE)-PINNを導入している。
論文 参考訳(メタデータ) (2026-02-13T04:28:23Z) - PhyG-MoE: A Physics-Guided Mixture-of-Experts Framework for Energy-Efficient GNSS Interference Recognition [49.955269674859004]
本稿では,PhyG-MoE(Physics-Guided Mixture-of-Experts)について述べる。
静的アーキテクチャとは異なり、提案システムはスペクトル特性の絡み合いに基づいて信号をルーティングするスペクトルベースのゲーティング機構を用いる。
高容量のTransNeXtエキスパートがオンデマンドでアクティベートされ、飽和シナリオで複雑な機能を分離する一方、軽量のエキスパートは基本的なシグナルを処理してレイテンシを最小化する。
論文 参考訳(メタデータ) (2026-01-19T07:57:52Z) - RockNet: Distributed Learning on Ultra-Low-Power Devices [49.01692357536576]
本稿では,超低消費電力ハードウェアに適した新しいTinyML法であるRockNetを提案する。
CPSは複数のデバイスで構成されているため,機械学習と無線通信を統合した分散学習手法を設計する。
この結果から,分散ML,分散コンピューティング,通信の緊密な統合により,最先端の精度で超低消費電力ハードウェアのトレーニングが可能となった。
論文 参考訳(メタデータ) (2025-10-15T09:09:30Z) - U-PINet: End-to-End Hierarchical Physics-Informed Learning With Sparse Graph Coupling for 3D EM Scattering Modeling [28.64166932076228]
電磁波散乱モデリングは、レーダーリモートセンシングに不可欠である。
従来の数値解法は精度が高いが、スケーラビリティの問題と計算コストに悩まされている。
これらの制約を克服するために,U字型物理情報ネットワーク (U-PINet) を提案する。
論文 参考訳(メタデータ) (2025-08-05T12:20:42Z) - Physics-Informed Graph Neural Networks for Transverse Momentum Estimation in CMS Trigger Systems [0.0]
高エネルギー物理におけるリアルタイム粒子横運動量(p_T$)推定は、厳密なハードウェア制約の下で効率的なアルゴリズムを要求する。
本稿では,物理インフォームドグラフニューラルネットワーク(GNN)フレームワークを提案する。
我々の共同設計手法は、既存のベースラインに比べて精度と効率のトレードオフが優れている。
論文 参考訳(メタデータ) (2025-07-25T12:19:57Z) - Lightweight Federated Learning over Wireless Edge Networks [83.4818741890634]
Federated (FL) はネットワークエッジの代替品であるが、無線ネットワークでは代替品である。
閉形式式FL収束ギャップ伝送パワー,モデルプルーニング誤差,量子化を導出する。
LTFLは、実世界のデータセットの実験において最先端のスキームよりも優れている。
論文 参考訳(メタデータ) (2025-07-13T09:14:17Z) - Hyperdimensional Computing Empowered Federated Foundation Model over Wireless Networks for Metaverse [56.384390765357004]
本稿では,新しい基礎モデルのための統合型分割学習と超次元計算フレームワークを提案する。
この新しいアプローチは通信コスト、計算負荷、プライバシーリスクを低減し、Metaverseのリソース制約されたエッジデバイスに適している。
論文 参考訳(メタデータ) (2024-08-26T17:03:14Z) - Asynchronous Parallel Incremental Block-Coordinate Descent for
Decentralized Machine Learning [55.198301429316125]
機械学習(ML)は、巨大なIoT(Internet of Things)ベースのインテリジェントでユビキタスなコンピューティングのビッグデータ駆動モデリングと分析のための重要なテクニックである。
急成長するアプリケーションやデータ量にとって、分散学習は有望な新興パラダイムである。
本稿では,多くのユーザデバイスに分散した分散システム上でMLモデルをトレーニングする問題について検討する。
論文 参考訳(メタデータ) (2022-02-07T15:04:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。