論文の概要: A Distributed Framework for Privacy-Enhanced Vision Transformers on the Edge
- arxiv url: http://arxiv.org/abs/2512.09309v1
- Date: Wed, 10 Dec 2025 04:37:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.39221
- Title: A Distributed Framework for Privacy-Enhanced Vision Transformers on the Edge
- Title(参考訳): エッジ上のプライバシ強化ビジョントランスのための分散フレームワーク
- Authors: Zihao Ding, Mufeng Zhu, Zhongze Tang, Sheng Wei, Yao Liu,
- Abstract要約: 視覚変換器(ViT)のための分散階層型オフロードフレームワークを提案する。
このアプローチでは、エッジオーケストレータとして、携帯電話やNvidia Jetsonといった、ローカルな信頼できるエッジデバイスを使用します。
設計上、単一の外部サーバが完全なイメージを持っておらず、包括的なデータ再構成を防いでいる。
- 参考スコア(独自算出の注目度): 3.344634520578015
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nowadays, visual intelligence tools have become ubiquitous, offering all kinds of convenience and possibilities. However, these tools have high computational requirements that exceed the capabilities of resource-constrained mobile and wearable devices. While offloading visual data to the cloud is a common solution, it introduces significant privacy vulnerabilities during transmission and server-side computation. To address this, we propose a novel distributed, hierarchical offloading framework for Vision Transformers (ViTs) that addresses these privacy challenges by design. Our approach uses a local trusted edge device, such as a mobile phone or an Nvidia Jetson, as the edge orchestrator. This orchestrator partitions the user's visual data into smaller portions and distributes them across multiple independent cloud servers. By design, no single external server possesses the complete image, preventing comprehensive data reconstruction. The final data merging and aggregation computation occurs exclusively on the user's trusted edge device. We apply our framework to the Segment Anything Model (SAM) as a practical case study, which demonstrates that our method substantially enhances content privacy over traditional cloud-based approaches. Evaluations show our framework maintains near-baseline segmentation performance while substantially reducing the risk of content reconstruction and user data exposure. Our framework provides a scalable, privacy-preserving solution for vision tasks in the edge-cloud continuum.
- Abstract(参考訳): 近年、ビジュアルインテリジェンスツールが普及し、あらゆる種類の利便性と可能性を提供している。
しかし、これらのツールは、リソース制限されたモバイルおよびウェアラブルデバイスの能力を超える高い計算要求を持っている。
視覚データをクラウドにオフロードすることは一般的な解決策だが、トランスミッションとサーバサイドの計算の間に重大なプライバシー上の脆弱性をもたらす。
これを解決するために,視覚変換器(ViT)のための分散型階層型オフロードフレームワークを提案する。
このアプローチでは、エッジオーケストレータとして、携帯電話やNvidia Jetsonといった、ローカルな信頼できるエッジデバイスを使用します。
このオーケストレータは、ユーザの視覚データを小さな部分に分割し、複数の独立したクラウドサーバに分散する。
設計上、単一の外部サーバが完全なイメージを持っておらず、包括的なデータ再構成を防いでいる。
最終的なデータのマージと集約の計算は、ユーザの信頼できるエッジデバイス上でのみ行われる。
我々は,Segment Anything Model (SAM) の実践事例としてフレームワークを適用し,従来のクラウドベースアプローチよりもコンテンツプライバシを大幅に向上させることを実証した。
評価の結果,本フレームワークは,コンテンツ再構成やユーザデータ露出のリスクを大幅に低減しつつ,ほぼベースラインセグメンテーション性能を維持していることがわかった。
当社のフレームワークは,エッジクラウド連続体におけるビジョンタスクに対して,スケーラブルでプライバシ保護のソリューションを提供します。
関連論文リスト
- ObCLIP: Oblivious CLoud-Device Hybrid Image Generation with Privacy Preservation [9.081441952478306]
ObCLIPは、不愉快なクラウドデバイスハイブリッド生成のためのプラグアンドプレイセーフガードである。
厳格なプライバシと、サーバコストがわずかに向上したクラウドモデルに匹敵するユーティリティを提供する。
論文 参考訳(メタデータ) (2025-10-05T11:09:10Z) - Personalized Vision via Visual In-Context Learning [62.85784251383279]
パーソナライズされた視覚のためのビジュアル・イン・コンテキスト・ラーニング・フレームワークを提案する。
PICOは基盤となる変換を推測し、再トレーニングせずに新しい入力に適用する。
また,効率的な推論スケーリングによる信頼性向上を目的とした注意誘導型シードスコアラを提案する。
論文 参考訳(メタデータ) (2025-09-29T17:58:45Z) - CoSteer: Collaborative Decoding-Time Personalization via Local Delta Steering [80.54309860395763]
CoSteerは、ローカライズされたデルタステアリングを通じてデコード時のパーソナライズを可能にする、新しいコラボレーティブフレームワークである。
トークンレベルの最適化をオンライン学習問題として定式化し、ローカルデルタベクトルがリモートLLMのロジットを動的に調整する。
このアプローチは、生のデータや中間ベクトルではなく、最後のステアリングトークンのみを送信することで、プライバシを保護します。
論文 参考訳(メタデータ) (2025-07-07T08:32:29Z) - PWC-MoE: Privacy-Aware Wireless Collaborative Mixture of Experts [59.5243730853157]
クラウドサーバにホストされる大規模言語モデル(LLM)は、ローカルデバイス上の計算とストレージの負担を軽減するが、プライバシの懸念を高める。
小規模言語モデル(SLM)は、ローカルで実行されるためプライバシーが向上するが、複雑なタスクではパフォーマンスが制限される。
帯域幅制約下での計算コスト,性能,プライバシ保護のバランスをとるために,プライバシを意識したPWC-MoE(PWC-MoE)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-13T16:27:07Z) - MAGNETO: Edge AI for Human Activity Recognition -- Privacy and
Personalization [1.494944639485053]
MAGNETOは、HARタスクをクラウドからエッジにプッシュするEdge AIプラットフォームである。
これにより、強力なプライバシ保証、低処理レイテンシ、ユーザに対する高度なパーソナライズが可能になる。
論文 参考訳(メタデータ) (2024-02-11T12:29:16Z) - FLVoogd: Robust And Privacy Preserving Federated Learning [12.568409209047505]
プライバシを保護しながら,サーバとクライアントが共同でビザンチン攻撃を除去する,新たなフェデレート学習手法であるoogdを提案する。
サーバは、S2PCと組み合わされたDBSCAN(Spatial Clustering of Applications)の自動密度ベースの空間クラスタリングを使用して、機密性の高い個人情報を取得せずに、良質な多数派をクラスタリングする。
私たちのフレームワークは自動で適応的なので、サーバ/クライアントはトレーニング中にパラメータをチューニングする必要がありません。
論文 参考訳(メタデータ) (2022-06-24T08:48:15Z) - Auto-Split: A General Framework of Collaborative Edge-Cloud AI [49.750972428032355]
本稿では,Huawei Cloudのエッジクラウド共同プロトタイプであるAuto-Splitの技法と技術実践について述べる。
私たちの知る限りでは、Deep Neural Network(DNN)分割機能を提供する既存の産業製品はありません。
論文 参考訳(メタデータ) (2021-08-30T08:03:29Z) - Efficient Privacy Preserving Edge Computing Framework for Image
Classification [2.6514980627603006]
本稿では,画像分類のための新しいプライバシー保護エッジコンピューティングフレームワークを提案する。
Autoencoderは各エッジデバイスで個別に教師なしでトレーニングされ、得られた潜在ベクトルはエッジサーバに送信される。
エンドユーザーのデータのプライバシーは、追加の暗号化コストなしで潜伏ベクトルを送信することによって保護される。
論文 参考訳(メタデータ) (2020-05-10T03:36:32Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。