論文の概要: U-MASK: User-adaptive Spatio-Temporal Masking for Personalized Mobile AI Applications
- arxiv url: http://arxiv.org/abs/2601.06867v1
- Date: Sun, 11 Jan 2026 11:22:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.040528
- Title: U-MASK: User-adaptive Spatio-Temporal Masking for Personalized Mobile AI Applications
- Title(参考訳): U-MASK: パーソナライズされたモバイルAIアプリケーションのためのユーザ適応型時空間マスキング
- Authors: Shiyuan Zhang, Yilai Liu, Yuwei Du, Ruoxuan Yang, Dong In Kim, Hongyang Du,
- Abstract要約: 本稿では,ユーザの信頼性とタスク感度に基づいて,エビデンス予算を割り当てるユーザ適応型マスキング手法を提案する。
実世界のモバイルデータセットの実験では、最先端の手法よりも一貫した改善が示されている。
- 参考スコア(独自算出の注目度): 19.36570429404181
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized mobile artificial intelligence applications are widely deployed, yet they are expected to infer user behavior from sparse and irregular histories under a continuously evolving spatio-temporal context. This setting induces a fundamental tension among three requirements, i.e., immediacy to adapt to recent behavior, stability to resist transient noise, and generalization to support long-horizon prediction and cold-start users. Most existing approaches satisfy at most two of these requirements, resulting in an inherent impossibility triangle in data-scarce, non-stationary personalization. To address this challenge, we model mobile behavior as a partially observed spatio-temporal tensor and unify short-term adaptation, long-horizon forecasting, and cold-start recommendation as a conditional completion problem, where a user- and task-specific mask specifies which coordinates are treated as evidence. We propose U-MASK, a user-adaptive spatio-temporal masking method that allocates evidence budgets based on user reliability and task sensitivity. To enable mask generation under sparse observations, U-MASK learns a compact, task-agnostic user representation from app and location histories via U-SCOPE, which serves as the sole semantic conditioning signal. A shared diffusion transformer then performs mask-guided generative completion while preserving observed evidence, so personalization and task differentiation are governed entirely by the mask and the user representation. Experiments on real-world mobile datasets demonstrate consistent improvements over state-of-the-art methods across short-term prediction, long-horizon forecasting, and cold-start settings, with the largest gains under severe data sparsity. The code and dataset will be available at https://github.com/NICE-HKU/U-MASK.
- Abstract(参考訳): パーソナライズされたモバイル人工知能アプリケーションは広く展開されているが、時空間の持続的な変化の下で、スパースや不規則な履歴からユーザの振舞いを推測することが期待されている。
この設定は、3つの要件、すなわち最近の行動に適応するための即時性、過渡的な騒音に抵抗する安定性、長期の予測とコールドスタートユーザをサポートするための一般化の間に根本的な緊張を生じさせる。
既存のほとんどのアプローチはこれらの要件の少なくとも2つを満たすため、データスカース、非定常パーソナライゼーションにおいて本質的には不可能な三角形となる。
この課題に対処するために、移動行動は部分的に観察された時空間テンソルとしてモデル化し、条件付き完了問題として短期適応、長期予測、コールドスタート推奨を統一する。
ユーザの信頼性とタスク感度に基づいて,エビデンス予算を割り当てるユーザ適応型時空間マスキング手法U-MASKを提案する。
スパース観測下でマスク生成を可能にするために、U-MASKはアプリケーションと位置履歴から、単一のセマンティックコンディショニング信号として機能するU-SCOPEを介して、コンパクトでタスクに依存しないユーザ表現を学習する。
共有拡散変換器は、観察された証拠を保存しながらマスク誘導生成完了を行うので、マスクとユーザ表現とでパーソナライゼーションとタスク分化が完全に管理される。
実世界のモバイルデータセットの実験では、短期間の予測、長期の予測、コールドスタート設定など、最先端の手法に対する一貫した改善が示されている。
コードとデータセットはhttps://github.com/NICE-HKU/U-MASKで入手できる。
関連論文リスト
- CLOAK: Contrastive Guidance for Latent Diffusion-Based Data Obfuscation [6.2048266436284605]
データ難読化は、半信頼できる当事者による属性推論攻撃を軽減し、センサーが出力する時系列データにアクセスするための有望な手法である。
潜在拡散モデルに基づく新しいデータ難読化フレームワークであるClakを提案する。
従来の研究とは対照的に,非交叉表現を抽出するためにコントラスト学習を用い,個人情報を隠蔽しながら有用な情報を保持するために潜伏拡散過程を導出する。
論文 参考訳(メタデータ) (2025-12-12T23:30:43Z) - Masked Temporal Interpolation Diffusion for Procedure Planning in Instructional Videos [32.71627274876863]
本稿では,授業ビデオにおけるプロシージャ計画の課題に対処し,開始と終了の視覚的観察から協調的かつタスクに沿ったアクションシーケンスを生成することを目的とする。
これまでの研究は主に、観察された状態と観察されていない行動の間のギャップを埋めるためにテキストレベルの監督に依存してきたが、行動間の複雑な時間的関係を捉えるのに苦労した。
本研究では,拡散モデル内に潜時空間時間モジュールを導入した仮設仮設時間補間拡散モデルを提案する。
論文 参考訳(メタデータ) (2025-07-04T08:54:59Z) - Spatial-Temporal-Spectral Unified Modeling for Remote Sensing Dense Prediction [20.1863553357121]
リモートセンシングのための現在のディープラーニングアーキテクチャは、基本的に堅固である。
本稿では,統合モデリングのための空間時間スペクトル統一ネットワーク(STSUN)について紹介する。
STSUNは任意の空間サイズ、時間長、スペクトル帯域で入力および出力データに適応することができる。
様々な密集した予測タスクと多様な意味クラス予測を統一する。
論文 参考訳(メタデータ) (2025-05-18T07:39:17Z) - GACL: Graph Attention Collaborative Learning for Temporal QoS Prediction [5.040979636805073]
時間的予測のための新しいグラフ協調学習(GACL)フレームワークを提案する。
動的ユーザサービスグラフ上に構築され、過去のインタラクションを包括的にモデル化する。
WS-DREAMデータセットの実験は、GACLが時間的予測のための最先端の手法を著しく上回っていることを示している。
論文 参考訳(メタデータ) (2024-08-20T05:38:47Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - CGS-Mask: Making Time Series Predictions Intuitive for All [29.64350656371879]
本稿では,CGS-Maskを提案する。
我々はCGS-Maskを合成および実世界のデータセット上で評価し、時間とともに特徴の重要性を解明するために最先端の手法より優れていた。
質問紙調査によるパイロット調査によると,CGS-Maskは容易に理解できる時系列予測結果を示す上で,最も効果的な手法である。
論文 参考訳(メタデータ) (2023-12-15T03:31:21Z) - Layout Sequence Prediction From Noisy Mobile Modality [53.49649231056857]
軌道予測は、自律運転やロボット工学などの応用における歩行者運動を理解する上で重要な役割を担っている。
現在の軌道予測モデルは、視覚的モダリティからの長い、完全な、正確に観察されたシーケンスに依存する。
本稿では,物体の障害物や視界外を,完全に視認できる軌跡を持つものと同等に扱う新しいアプローチであるLTrajDiffを提案する。
論文 参考訳(メタデータ) (2023-10-09T20:32:49Z) - Lifelong Unsupervised Domain Adaptive Person Re-identification with
Coordinated Anti-forgetting and Adaptation [127.6168183074427]
本稿では,LUDA (Lifelong Unsupervised Domain Adaptive) という新たなタスクを提案する。
これは、モデルがターゲット環境のラベル付けされていないデータに継続的に適応する必要があるため、難しい。
我々は、CLUDA-ReIDと呼ばれるこのタスクのための効果的なスキームを設計し、そこでは、アンチフォージェッティングが適応と調和して調整される。
論文 参考訳(メタデータ) (2021-12-13T13:19:45Z) - Unsupervised Model Personalization while Preserving Privacy and
Scalability: An Open Problem [55.21502268698577]
本研究では,非教師なしモデルパーソナライゼーションの課題について検討する。
この問題を探求するための新しいDual User-Adaptation Framework(DUA)を提供する。
このフレームワークは、サーバ上のモデルパーソナライズとユーザデバイス上のローカルデータ正規化に柔軟にユーザ適応を分散させる。
論文 参考訳(メタデータ) (2020-03-30T09:35:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。