論文の概要: Multimodal Remote Inference
- arxiv url: http://arxiv.org/abs/2508.07555v2
- Date: Sun, 17 Aug 2025 02:56:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 12:43:44.874068
- Title: Multimodal Remote Inference
- Title(参考訳): マルチモーダルリモート推論
- Authors: Keyuan Zhang, Yin Sun, Bo Ji,
- Abstract要約: 本稿では,MLモデルの推論誤差を最小限に抑えるための2モードスケジューリング問題について検討する。
両モダリティが同じ閾値を共有し、インデックス関数と閾値を効率的に計算できることが示される。
- 参考スコア(独自算出の注目度): 14.609320101695575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a remote inference system with multiple modalities, where a multimodal machine learning (ML) model performs real-time inference using features collected from remote sensors. When sensor observations evolve dynamically over time, fresh features are critical for inference tasks. However, timely delivery of features from all modalities is often infeasible because of limited network resources. Towards this end, in this paper, we study a two-modality scheduling problem that seeks to minimize the ML model's inference error, expressed as a penalty function of the Age of Information (AoI) vector of the two modalities. We develop an index-based threshold policy and prove its optimality. Specifically, the scheduler switches to the other modality once the current modality's index function exceeds a predetermined threshold. We show that both modalities share the same threshold and that the index functions and the threshold can be computed efficiently. Our optimality results hold for general AoI functions (which could be non-monotonic and non-separable) and heterogeneous transmission times across modalities. To demonstrate the importance of considering a task-oriented AoI function, we conduct numerical experiments based on robot state prediction and compare our policy with round-robin and uniform random policies (both are oblivious to the AoI and the inference error).n The results show that our policy reduces inference error by up to 55% compared with these baselines.
- Abstract(参考訳): マルチモーダル機械学習(ML)モデルがリモートセンサから収集した特徴を用いてリアルタイムな推論を行う,マルチモーダルなリモート推論システムについて考察する。
センサ観測が時間とともに動的に進化すると、新しい特徴が推論タスクに欠かせない。
しかしながら、すべてのモダリティから機能をタイムリーに配信することは、ネットワークリソースが限られているため、しばしば実現不可能である。
そこで本稿では,MLモデルの推論誤差を最小限に抑えるための2モードスケジューリング問題について検討する。
我々はインデックスベースのしきい値ポリシーを開発し、その最適性を証明する。
具体的には、現在のモダリティのインデックス関数が所定の閾値を超えると、スケジューラは他のモダリティに切り替える。
両モダリティが同じ閾値を共有し、インデックス関数と閾値を効率的に計算できることが示される。
我々の最適性は、一般のAoI関数(非単調かつ非分離性)とモジュラリティ間の不均一な伝送時間に対して成り立つ。
タスク指向のAoI関数を考えることの重要性を示すために,ロボットの状態予測に基づく数値実験を行い,我々のポリシーをラウンドロビンと均一なランダムポリシーと比較する(どちらもAoIと推論誤差を無視する)。
n 以上の結果から,これらの基準値と比較して推論誤差を最大55%削減できることがわかった。
関連論文リスト
- Semiparametric Double Reinforcement Learning with Applications to Long-Term Causal Inference [33.14076284663493]
短期的なデータから長期的な因果効果を推定しなければならない。
MDPはこのような長期的ダイナミクスを捉えるための自然なフレームワークを提供する。
非パラメトリックな実装は時間間重なりの強い仮定を必要とする。
アイソトニックベルマンキャリブレーションに基づく新しいプラグイン推定器を提案する。
論文 参考訳(メタデータ) (2025-01-12T20:35:28Z) - Bidirectional Decoding: Improving Action Chunking via Guided Test-Time Sampling [51.38330727868982]
動作チャンキングが学習者と実証者の間の分岐にどのように影響するかを示す。
動作チャンキングをクローズドループ適応でブリッジするテスト時間推論アルゴリズムである双方向デコーディング(BID)を提案する。
提案手法は、7つのシミュレーションベンチマークと2つの実世界のタスクにまたがって、最先端の2つの生成ポリシーの性能を向上させる。
論文 参考訳(メタデータ) (2024-08-30T15:39:34Z) - Timely Communications for Remote Inference [16.671201899392585]
リモート推論システムにおけるデータの鮮度の影響を解析する。
そこで本稿では,特徴の送出のための"selection-from-buffer"モデルを提案する。
また、推論性能を向上させるために、低複雑さスケジューリングポリシーを設計する。
論文 参考訳(メタデータ) (2024-04-25T01:53:21Z) - Semantic-Aware Remote Estimation of Multiple Markov Sources Under Constraints [9.514904359788156]
我々は,情報文のエフェスマンティクスを利用して,リモートアクチュエータが推定誤差に対して異なる耐性を有することを考察する。
送信周波数制約下での予測誤差の長期的テキスト状態依存コストを最小限に抑える最適スケジューリングポリシーを見いだす。
論文 参考訳(メタデータ) (2024-03-25T15:18:23Z) - Value function interference and greedy action selection in value-based
multi-objective reinforcement learning [1.4206639868377509]
多目的強化学習(MORL)アルゴリズムは従来の強化学習(RL)を拡張する
ユーザのユーティリティ関数が、ベクター値と類似のユーティリティレベルを幅広くマップしている場合、これは干渉を引き起こす可能性があることを示す。
我々は、欲求行動を特定する際にランダムなタイブレークを避けることは、値関数の干渉によって生じる問題を改善できるが、完全には克服できないことを実証的に示す。
論文 参考訳(メタデータ) (2024-02-09T09:28:01Z) - Multi-task Bias-Variance Trade-off Through Functional Constraints [102.64082402388192]
マルチタスク学習は、多様なタスクによく機能する関数の集合を取得することを目的としている。
本稿では,2つの極端な学習シナリオ,すなわちすべてのタスクに対する単一関数と,他のタスクを無視するタスク固有関数から直感を抽出する。
本稿では,集中関数に対するドメイン固有解を強制する制約付き学習定式化を導入する。
論文 参考訳(メタデータ) (2022-10-27T16:06:47Z) - Robust Value Iteration for Continuous Control Tasks [99.00362538261972]
シミュレーションから物理システムへ制御ポリシを転送する場合、そのポリシは、動作の変動に対して堅牢でなければならない。
本稿では、動的プログラミングを用いて、コンパクトな状態領域上での最適値関数を計算するRobust Fitted Value Iterationを提案する。
より深い強化学習アルゴリズムや非ロバストなアルゴリズムと比較して、ロバストな値の方が頑健であることを示す。
論文 参考訳(メタデータ) (2021-05-25T19:48:35Z) - Parallel Stochastic Mirror Descent for MDPs [72.75921150912556]
無限水平マルコフ決定過程(MDP)における最適政策学習の問題を考える。
リプシッツ連続関数を用いた凸プログラミング問題に対してミラー・ディクセントの変種が提案されている。
このアルゴリズムを一般の場合において解析し,提案手法の動作中に誤差を蓄積しない収束率の推定値を得る。
論文 参考訳(メタデータ) (2021-02-27T19:28:39Z) - Doubly Robust Off-Policy Actor-Critic: Convergence and Optimality [131.45028999325797]
ディスカウント型MDPのための2倍堅牢なオフポリチックAC(DR-Off-PAC)を開発した。
DR-Off-PACは、俳優と批評家の両方が一定のステップで同時に更新される単一のタイムスケール構造を採用しています。
有限時間収束速度を研究し, dr-off-pac のサンプル複雑性を特徴とし, $epsilon$-accurate optimal policy を得る。
論文 参考訳(メタデータ) (2021-02-23T18:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。