論文の概要: AdaFlow: Opportunistic Inference on Asynchronous Mobile Data with Generalized Affinity Control
- arxiv url: http://arxiv.org/abs/2410.24028v1
- Date: Thu, 31 Oct 2024 15:28:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 16:59:46.392842
- Title: AdaFlow: Opportunistic Inference on Asynchronous Mobile Data with Generalized Affinity Control
- Title(参考訳): AdaFlow: 汎用親和性制御による非同期モバイルデータの機会論的推論
- Authors: Fenmin Wu, Sicong Liu, Kehao Zhu, Xiaochen Li, Bin Guo, Zhiwen Yu, Hongkai Wen, Xiangrui Xu, Lehao Wang, Xiangyu Liu,
- Abstract要約: AdaFlowは、階層解析に基づく正規化行列を用いて、モバイルコンテキストにおける構造化されたモダリティ親和性の定式化を開拓した。
AdaFlowは推論遅延を最大79.9%削減し、精度を61.9%向上させ、ステータスクオアプローチを上回っている。
- 参考スコア(独自算出の注目度): 16.944584145880793
- License:
- Abstract: The rise of mobile devices equipped with numerous sensors, such as LiDAR and cameras, has spurred the adoption of multi-modal deep intelligence for distributed sensing tasks, such as smart cabins and driving assistance. However, the arrival times of mobile sensory data vary due to modality size and network dynamics, which can lead to delays (if waiting for slower data) or accuracy decline (if inference proceeds without waiting). Moreover, the diversity and dynamic nature of mobile systems exacerbate this challenge. In response, we present a shift to \textit{opportunistic} inference for asynchronous distributed multi-modal data, enabling inference as soon as partial data arrives. While existing methods focus on optimizing modality consistency and complementarity, known as modal affinity, they lack a \textit{computational} approach to control this affinity in open-world mobile environments. AdaFlow pioneers the formulation of structured cross-modality affinity in mobile contexts using a hierarchical analysis-based normalized matrix. This approach accommodates the diversity and dynamics of modalities, generalizing across different types and numbers of inputs. Employing an affinity attention-based conditional GAN (ACGAN), AdaFlow facilitates flexible data imputation, adapting to various modalities and downstream tasks without retraining. Experiments show that AdaFlow significantly reduces inference latency by up to 79.9\% and enhances accuracy by up to 61.9\%, outperforming status quo approaches.
- Abstract(参考訳): LiDARやカメラなどの多数のセンサーを備えたモバイルデバイスの台頭は、スマートキャビンや運転支援といった分散センシングタスクにマルチモーダルディープインテリジェンスを採用するきっかけとなった。
しかし、移動センサデータの到着時間は、モダリティサイズやネットワークダイナミクスによって異なり、遅延(遅いデータを待つ場合)や精度低下(推論が待たずに進行する場合)につながる可能性がある。
さらに、モバイルシステムの多様性と動的な性質が、この課題を悪化させる。
応答として、非同期分散マルチモーダルデータに対する \textit{opportunistic} 推論にシフトし、部分データが到着した直後に推論を可能にする。
既存の手法では、モダリティの整合性と相補性(modal affinity)の最適化に重点を置いているが、オープンワールドのモバイル環境において、この親和性を制御するための‘textit{computational} アプローチは存在しない。
AdaFlowは、階層解析に基づく正規化行列を用いて、モバイルコンテキストにおける構造化されたモダリティ親和性の定式化を開拓した。
このアプローチはモダリティの多様性とダイナミクスに対応し、異なる型と入力数にまたがって一般化する。
AdaFlowはアフィニティアテンションベースの条件付きGAN(ACGAN)を利用することで、フレキシブルなデータ計算を容易にし、さまざまなモダリティや下流タスクに再トレーニングすることなく適応する。
実験の結果、AdaFlowは推論遅延を最大79.9\%削減し、精度を最大61.9\%向上し、ステータスクオアプローチよりも優れていた。
関連論文リスト
- AI Flow at the Network Edge [58.31090055138711]
AI Flowは、デバイス、エッジノード、クラウドサーバ間で利用可能な異種リソースを共同で活用することで、推論プロセスを合理化するフレームワークである。
この記事では、AI Flowのモチベーション、課題、原則を特定するためのポジションペーパーとして機能する。
論文 参考訳(メタデータ) (2024-11-19T12:51:17Z) - Modality Prompts for Arbitrary Modality Salient Object Detection [57.610000247519196]
本論文は、任意のモーダリティ・サリエント物体検出(AM SOD)の課題について述べる。
任意のモダリティ、例えばRGBイメージ、RGB-Dイメージ、RGB-D-Tイメージから有能なオブジェクトを検出することを目的としている。
AM SODの2つの基本的な課題を解明するために,新しいモード適応トランス (MAT) を提案する。
論文 参考訳(メタデータ) (2024-05-06T11:02:02Z) - Dynamic D2D-Assisted Federated Learning over O-RAN: Performance Analysis, MAC Scheduler, and Asymmetric User Selection [13.408764465010687]
現実世界の無線ネットワークは、無線チャンネルの容量と利用者の時間的変動に影響を受けやすい。
マルチグラニュラダイナミックス (MSD) をFLに組み込み, (M1) 個別無線チャネルを, $mathscrD$Events と呼ばれるイベントセットと (M2) ユーザの動的データセットによって構成する。
階層型デバイス・ツー・デバイス(D2D)支援モデルトレーニング,(ii)専用O-RAN MACスケジューラによる動的制御決定,(iii)非対称なユーザ選択を提案する。
論文 参考訳(メタデータ) (2024-04-09T14:03:04Z) - DYNAMITE: Dynamic Interplay of Mini-Batch Size and Aggregation Frequency
for Federated Learning with Static and Streaming Dataset [23.11152686493894]
Federated Learning(FL)は、異種エッジデバイスをコーディネートして、プライベートデータを共有せずにモデルトレーニングを実行する分散学習パラダイムである。
本稿では、バッチサイズと集約周波数の相互作用を利用して、動的FLトレーニングにおける収束、コスト、完了時間間のトレードオフをナビゲートする新しい解析モデルと最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-20T08:36:12Z) - Accelerating Scalable Graph Neural Network Inference with Node-Adaptive
Propagation [80.227864832092]
グラフニューラルネットワーク(GNN)は、様々なアプリケーションで例外的な効果を発揮している。
大規模グラフの重大化は,GNNによるリアルタイム推論において重要な課題となる。
本稿では,オンライン伝搬フレームワークと2つの新しいノード適応伝搬手法を提案する。
論文 参考訳(メタデータ) (2023-10-17T05:03:00Z) - Leveraging Low-Rank and Sparse Recurrent Connectivity for Robust
Closed-Loop Control [63.310780486820796]
繰り返し接続のパラメータ化が閉ループ設定のロバスト性にどのように影響するかを示す。
パラメータが少ないクローズドフォーム連続時間ニューラルネットワーク(CfCs)は、フルランクで完全に接続されたニューラルネットワークよりも優れています。
論文 参考訳(メタデータ) (2023-10-05T21:44:18Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - FLARE: Detection and Mitigation of Concept Drift for Federated Learning
based IoT Deployments [2.7776688429637466]
FLAREは、トレーニングデータを条件付きで転送し、エッジとセンサのエンドポイント間でモデルをデプロイする、軽量なデュアルスケジューリングFLフレームワークである。
固定間隔スケジューリング法と比較して,FLAREはエッジノードとセンサノード間で交換されるデータ量を大幅に削減できることを示す。
少なくとも16倍のレイテンシで、コンセプトドリフトを反応的に検出できる。
論文 参考訳(メタデータ) (2023-05-15T10:09:07Z) - Mobiprox: Supporting Dynamic Approximate Computing on Mobiles [9.012472705158592]
本稿では,モバイル深層学習を柔軟な精度で実現するフレームワークMobiproxを提案する。
Mobiproxはテンソル演算の調整可能な近似を実装し、個々のネットワーク層の実行時適応可能な近似を可能にする。
推定精度に最小限の影響を及ぼすことなく、最大15%のシステムワイドエネルギーを節約できることを実証した。
論文 参考訳(メタデータ) (2023-03-16T21:40:23Z) - SHIFT: A Synthetic Driving Dataset for Continuous Multi-Task Domain
Adaptation [152.60469768559878]
ShiFTは、自動運転のための最大規模のマルチタスク合成データセットである。
曇り、雨と霧の強さ、昼の時間、車と歩行者の密度を個別に連続的に変化させる。
私たちのデータセットとベンチマークツールキットはwww.vis.xyz/shift.comで公開されています。
論文 参考訳(メタデータ) (2022-06-16T17:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。