論文の概要: PAPER-HILT: Personalized and Adaptive Privacy-Aware Early-Exit for
Reinforcement Learning in Human-in-the-Loop Systems
- arxiv url: http://arxiv.org/abs/2403.05864v1
- Date: Sat, 9 Mar 2024 10:24:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-03-13 12:02:04.212129
- Title: PAPER-HILT: Personalized and Adaptive Privacy-Aware Early-Exit for
Reinforcement Learning in Human-in-the-Loop Systems
- Title(参考訳): paper-hilt: パーソナライズ・アダプティブ・プライバシ・アウェア・アーリーエクイットによるループ型人間学習の強化
- Authors: Mojtaba Taherisadr, Salma Elmalaki
- Abstract要約: 強化学習(RL)は、多様なHuman-in-the-loop(HITL)アプリケーションにおいて、従来のルールベースシステムよりも好まれる方法になりつつある。
本稿では,HITL環境におけるプライバシ保護を意識した早期退避アプローチを活用した,革新的で適応的なRL戦略の開発に焦点をあてる。
- 参考スコア(独自算出の注目度): 0.6282068591820944
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement Learning (RL) has increasingly become a preferred method over
traditional rule-based systems in diverse human-in-the-loop (HITL) applications
due to its adaptability to the dynamic nature of human interactions. However,
integrating RL in such settings raises significant privacy concerns, as it
might inadvertently expose sensitive user information. Addressing this, our
paper focuses on developing PAPER-HILT, an innovative, adaptive RL strategy
through exploiting an early-exit approach designed explicitly for privacy
preservation in HITL environments. This approach dynamically adjusts the
tradeoff between privacy protection and system utility, tailoring its operation
to individual behavioral patterns and preferences. We mainly highlight the
challenge of dealing with the variable and evolving nature of human behavior,
which renders static privacy models ineffective. PAPER-HILT's effectiveness is
evaluated through its application in two distinct contexts: Smart Home
environments and Virtual Reality (VR) Smart Classrooms. The empirical results
demonstrate PAPER-HILT's capability to provide a personalized equilibrium
between user privacy and application utility, adapting effectively to
individual user needs and preferences. On average for both experiments, utility
(performance) drops by 24%, and privacy (state prediction) improves by 31%.
- Abstract(参考訳): 強化学習(Reinforcement Learning, RL)は、人間の相互作用の動的性質への適応性から、多様なヒト-イン-ループ(HITL)アプリケーションにおいて、従来のルールベースシステムよりも好まれる手法になりつつある。
しかし、そのような設定にRLを統合すると、機密性の高いユーザー情報を不注意に暴露する可能性があるため、重大なプライバシー上の懸念が生じる。
そこで本研究では,HITL環境におけるプライバシ保護を意識した早期退避アプローチを活用することで,革新的で適応的なRL戦略であるPAPER-HILTの開発に着目する。
このアプローチは、プライバシ保護とシステムユーティリティのトレードオフを動的に調整し、操作を個々の行動パターンや好みに合わせて調整する。
我々は主に、静的プライバシモデルに効果を及ぼさない人間の行動の可変性と進化的性質に対処することの課題を強調する。
PAPER-HILTの有効性は、スマートホーム環境とバーチャルリアリティ(VR)スマート教室の2つの異なる文脈で評価されている。
実験の結果,PAPER-HILTはユーザプライバシとアプリケーションユーティリティの個別均衡を提供し,個々のユーザニーズや好みに効果的に適応できることを示した。
どちらの実験も平均すると、ユーティリティ(パフォーマンス)は24%減少し、プライバシ(状態予測)は31%改善する。
関連論文リスト
- Position Paper: Rethinking Privacy in RL for Sequential Decision-making in the Age of LLMs [46.828146821060265]
マルチスケール保護,行動パターン保護,協調プライバシ保護,コンテキスト認識適応という,4つの基本原則に基づいて構築された新たなプライバシパラダイムについて論じる。
これらの原則は、医療、自動運転車、およびLSMによる意思決定支援システムのような高度な領域において、RLシステムがより広く普及するにつれて、プライバシー、実用性、解釈可能性の間に固有の緊張関係を浮き彫りにする。
論文 参考訳(メタデータ) (2025-04-15T10:45:55Z) - Personalized Language Models via Privacy-Preserving Evolutionary Model Merging [57.161917758405465]
大規模言語モデル(LLM)におけるパーソナライゼーションは、個々のユーザまたはユーザグループの好みに合わせてモデルをカスタマイズすることを目指している。
進化的アルゴリズム(PriME)によるプライバシ保護モデルマージを提案する。
PriMEは、ユーザのプライバシを保護しながら、タスク固有のメトリクスを直接最適化するために、勾配のないメソッドを使用している。
論文 参考訳(メタデータ) (2025-03-23T09:46:07Z) - Advancing Personalized Federated Learning: Integrative Approaches with AI for Enhanced Privacy and Customization [0.0]
本稿では,最先端AI技術を用いてPFLを強化する新しい手法を提案する。
本稿では、個々のクライアントモデルの性能を高め、堅牢なプライバシ保護機構を保証するモデルを提案する。
この研究は、真のパーソナライズされたプライバシを重視したAIシステムの新たな時代への道を開くものだ。
論文 参考訳(メタデータ) (2025-01-30T07:03:29Z) - Privacy-Preserving Personalized Federated Prompt Learning for Multimodal Large Language Models [11.747329476179223]
パーソナライゼーションと一般化のバランスをとる上での課題に対処するために,DP-FPL(Dis differentially Private Federated Prompt Learning)アプローチを提案する。
本手法は,プライバシノイズがモデル性能に与える影響を軽減し,パーソナライゼーションと一般化のトレードオフを緩和する。
論文 参考訳(メタデータ) (2025-01-23T18:34:09Z) - Preserving Expert-Level Privacy in Offline Reinforcement Learning [35.486119057117996]
本稿では,既存のオフラインRLアルゴリズムと互換性のある,コンセンサスに基づく専門家レベルの個別オフラインRLトレーニング手法を提案する。
我々は、強い経験的性能を維持しながら、厳密な差分プライバシー保証を証明している。
論文 参考訳(メタデータ) (2024-11-18T21:26:53Z) - Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Scalable Differential Privacy Mechanisms for Real-Time Machine Learning Applications [0.0]
大規模言語モデル(LLM)は、ユーザのプライバシ保護が最重要であるリアルタイム機械学習アプリケーションに、ますます統合されている。
従来の差分プライバシーメカニズムは、プライバシーと精度のバランスをとるのに苦労することが多い。
当社では,堅牢なプライバシ保証とモデルパフォーマンスの向上を重視した,リアルタイム機械学習に適したフレームワークであるScalable Differential Privacy(SDP)を紹介した。
論文 参考訳(メタデータ) (2024-09-16T20:52:04Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - AdvCloak: Customized Adversarial Cloak for Privacy Protection [47.42005175670807]
生成モデルを用いたプライバシー保護のための革新的なフレームワークであるAdvCloakを提案する。
AdvCloakは、画像レベルの自然性を維持することができるクラスワイドの対向マスクを自動でカスタマイズするように設計されている。
本稿では,AdvCloakが既存の最先端手法よりも効率と有効性で優れていることを示す。
論文 参考訳(メタデータ) (2023-12-22T03:18:04Z) - Echo of Neighbors: Privacy Amplification for Personalized Private
Federated Learning with Shuffle Model [21.077469463027306]
協調トレーニングの一般的なパラダイムであるフェデレートラーニングは、プライバシ攻撃に弱い。
この作業は、シャッフルモデルのプライバシー増幅効果を活用することで、パーソナライズされたローカルプライバシの下でのモデルプライバシを強化するために構築される。
私たちの知る限りでは、シャッフルがパーソナライズされたローカルプライバシに与える影響は、初めて考慮される。
論文 参考訳(メタデータ) (2023-04-11T21:48:42Z) - adaPARL: Adaptive Privacy-Aware Reinforcement Learning for
Sequential-Decision Making Human-in-the-Loop Systems [0.5414308305392761]
強化学習(Reinforcement Learning, RL)は, 各種アプリケーションにおけるルールベースアプローチと比較して, 数多くの利点を示す。
本稿では,プライバシを意識したRLの適応的アプローチであるadaPARLを提案する。
AdaPARLは、人間の振る舞いや好みに応じて、パーソナライズされたプライバシユーティリティトレードオフを提供する。
論文 参考訳(メタデータ) (2023-03-07T21:55:22Z) - Privacy-Preserving Reinforcement Learning Beyond Expectation [6.495883501989546]
自動運転車のような機械学習アルゴリズムを備えたサイバーおよびサイバー物理システムは、環境を人間と共有する。
システム(またはエージェント)の振る舞いを1人以上のユーザの好みに合わせることが重要である。
エージェントが未知の環境で行動を学ぶ必要がある場合を考える。
論文 参考訳(メタデータ) (2022-03-18T21:28:29Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。