論文の概要: Multimodal Remote Inference
- arxiv url: http://arxiv.org/abs/2508.07555v1
- Date: Mon, 11 Aug 2025 02:30:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.910692
- Title: Multimodal Remote Inference
- Title(参考訳): マルチモーダルリモート推論
- Authors: Keyuan Zhang, Yin Sun, Bo Ji,
- Abstract要約: 本稿では,MLモデルの推論誤差を最小限に抑えるために,2モードスケジューリング問題について検討する。
ラウンドロビンや均一なランダムポリシーと比較して,提案手法は推論誤差を最大55%削減することを示す。
- 参考スコア(独自算出の注目度): 14.609320101695575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a remote inference system with multiple modalities, where a multimodal machine learning (ML) model performs real-time inference using features collected from remote sensors. As sensor observations may change dynamically over time, fresh features are critical for inference tasks. However, timely delivering features from all modalities is often infeasible due to limited network resources. To this end, we study a two-modality scheduling problem to minimize the ML model's inference error, which is expressed as a penalty function of AoI for both modalities. We develop an index-based threshold policy and prove its optimality. Specifically, the scheduler switches modalities when the current modality's index function exceeds a threshold. We show that the two modalities share the same threshold, and both the index functions and the threshold can be computed efficiently. The optimality of our policy holds for (i) general AoI functions that are \emph{non-monotonic} and \emph{non-additive} and (ii) \emph{heterogeneous} transmission times. Numerical results show that our policy reduces inference error by up to 55% compared to round-robin and uniform random policies, which are oblivious to the AoI-based inference error function. Our results shed light on how to improve remote inference accuracy by optimizing task-oriented AoI functions.
- Abstract(参考訳): マルチモーダル機械学習(ML)モデルがリモートセンサから収集した特徴を用いてリアルタイムな推論を行う,マルチモーダルなリモート推論システムについて考察する。
センサ観測は時間とともに動的に変化するため、新しい特徴は推論タスクに不可欠である。
しかしながら、すべてのモダリティから機能をタイムリーに配信することは、ネットワークリソースが限られているため、しばしば実現不可能である。
そこで本研究では,MLモデルの推論誤差を最小限に抑えるために,両モードのAoIのペナルティ関数として表現される2モードスケジューリング問題について検討する。
我々はインデックスベースのしきい値ポリシーを開発し、その最適性を証明する。
具体的には、スケジューラは、現在のモダリティのインデックス関数が閾値を超えるとき、モダリティを切り替える。
2つのモダリティは同じ閾値を共有し、インデックス関数としきい値の両方を効率的に計算できることが示される。
私たちの政策の最適性は
(i) \emph{non-monotonic} と \emph{non-additive} の一般 AoI 関数
(ii) \emph{heterogeneous} 送信時間。
数値計算の結果,AoIに基づく推論誤り関数に従わないラウンドロビンや均一ランダムポリシと比較して,提案手法は推論誤差を最大55%削減することがわかった。
その結果,タスク指向のAoI関数を最適化することで,リモート推論の精度を向上させる方法が明らかになった。
関連論文リスト
- Semiparametric Double Reinforcement Learning with Applications to Long-Term Causal Inference [33.14076284663493]
短期的なデータから長期的な因果効果を推定しなければならない。
MDPはこのような長期的ダイナミクスを捉えるための自然なフレームワークを提供する。
非パラメトリックな実装は時間間重なりの強い仮定を必要とする。
アイソトニックベルマンキャリブレーションに基づく新しいプラグイン推定器を提案する。
論文 参考訳(メタデータ) (2025-01-12T20:35:28Z) - Bidirectional Decoding: Improving Action Chunking via Guided Test-Time Sampling [51.38330727868982]
動作チャンキングが学習者と実証者の間の分岐にどのように影響するかを示す。
動作チャンキングをクローズドループ適応でブリッジするテスト時間推論アルゴリズムである双方向デコーディング(BID)を提案する。
提案手法は、7つのシミュレーションベンチマークと2つの実世界のタスクにまたがって、最先端の2つの生成ポリシーの性能を向上させる。
論文 参考訳(メタデータ) (2024-08-30T15:39:34Z) - Timely Communications for Remote Inference [16.671201899392585]
リモート推論システムにおけるデータの鮮度の影響を解析する。
そこで本稿では,特徴の送出のための"selection-from-buffer"モデルを提案する。
また、推論性能を向上させるために、低複雑さスケジューリングポリシーを設計する。
論文 参考訳(メタデータ) (2024-04-25T01:53:21Z) - Semantic-Aware Remote Estimation of Multiple Markov Sources Under Constraints [9.514904359788156]
我々は,情報文のエフェスマンティクスを利用して,リモートアクチュエータが推定誤差に対して異なる耐性を有することを考察する。
送信周波数制約下での予測誤差の長期的テキスト状態依存コストを最小限に抑える最適スケジューリングポリシーを見いだす。
論文 参考訳(メタデータ) (2024-03-25T15:18:23Z) - Value function interference and greedy action selection in value-based
multi-objective reinforcement learning [1.4206639868377509]
多目的強化学習(MORL)アルゴリズムは従来の強化学習(RL)を拡張する
ユーザのユーティリティ関数が、ベクター値と類似のユーティリティレベルを幅広くマップしている場合、これは干渉を引き起こす可能性があることを示す。
我々は、欲求行動を特定する際にランダムなタイブレークを避けることは、値関数の干渉によって生じる問題を改善できるが、完全には克服できないことを実証的に示す。
論文 参考訳(メタデータ) (2024-02-09T09:28:01Z) - Multi-task Bias-Variance Trade-off Through Functional Constraints [102.64082402388192]
マルチタスク学習は、多様なタスクによく機能する関数の集合を取得することを目的としている。
本稿では,2つの極端な学習シナリオ,すなわちすべてのタスクに対する単一関数と,他のタスクを無視するタスク固有関数から直感を抽出する。
本稿では,集中関数に対するドメイン固有解を強制する制約付き学習定式化を導入する。
論文 参考訳(メタデータ) (2022-10-27T16:06:47Z) - Robust Value Iteration for Continuous Control Tasks [99.00362538261972]
シミュレーションから物理システムへ制御ポリシを転送する場合、そのポリシは、動作の変動に対して堅牢でなければならない。
本稿では、動的プログラミングを用いて、コンパクトな状態領域上での最適値関数を計算するRobust Fitted Value Iterationを提案する。
より深い強化学習アルゴリズムや非ロバストなアルゴリズムと比較して、ロバストな値の方が頑健であることを示す。
論文 参考訳(メタデータ) (2021-05-25T19:48:35Z) - Parallel Stochastic Mirror Descent for MDPs [72.75921150912556]
無限水平マルコフ決定過程(MDP)における最適政策学習の問題を考える。
リプシッツ連続関数を用いた凸プログラミング問題に対してミラー・ディクセントの変種が提案されている。
このアルゴリズムを一般の場合において解析し,提案手法の動作中に誤差を蓄積しない収束率の推定値を得る。
論文 参考訳(メタデータ) (2021-02-27T19:28:39Z) - Doubly Robust Off-Policy Actor-Critic: Convergence and Optimality [131.45028999325797]
ディスカウント型MDPのための2倍堅牢なオフポリチックAC(DR-Off-PAC)を開発した。
DR-Off-PACは、俳優と批評家の両方が一定のステップで同時に更新される単一のタイムスケール構造を採用しています。
有限時間収束速度を研究し, dr-off-pac のサンプル複雑性を特徴とし, $epsilon$-accurate optimal policy を得る。
論文 参考訳(メタデータ) (2021-02-23T18:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。