論文の概要: GOD model: Privacy Preserved AI School for Personal Assistant
- arxiv url: http://arxiv.org/abs/2502.18527v2
- Date: Thu, 27 Feb 2025 20:33:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 12:25:16.235085
- Title: GOD model: Privacy Preserved AI School for Personal Assistant
- Title(参考訳): GODモデル: パーソナルアシスタントのためのプライバシ保護AIスクール
- Authors: PIN AI Team, Bill Sun, Gavin Guo, Regan Peng, Boliang Zhang, Shouqiao Wang, Laura Florescu, Xi Wang, Davide Crapis, Ben Wu,
- Abstract要約: 私たちは、デバイス上でAIアシスタントをトレーニングし評価するためのセキュアでプライバシー保護のフレームワークであるGuardian of Data(GOD)を紹介します。
GODは、ユーザデータと自律性を保護しながら贈り物を推奨するなど、アシスタントがユーザニーズをいかに予測できるかを測定します。
- 参考スコア(独自算出の注目度): 3.3015224434662396
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personal AI assistants (e.g., Apple Intelligence, Meta AI) offer proactive recommendations that simplify everyday tasks, but their reliance on sensitive user data raises concerns about privacy and trust. To address these challenges, we introduce the Guardian of Data (GOD), a secure, privacy-preserving framework for training and evaluating AI assistants directly on-device. Unlike traditional benchmarks, the GOD model measures how well assistants can anticipate user needs-such as suggesting gifts-while protecting user data and autonomy. Functioning like an AI school, it addresses the cold start problem by simulating user queries and employing a curriculum-based approach to refine the performance of each assistant. Running within a Trusted Execution Environment (TEE), it safeguards user data while applying reinforcement and imitation learning to refine AI recommendations. A token-based incentive system encourages users to share data securely, creating a data flywheel that drives continuous improvement. Specifically, users mine with their data, and the mining rate is determined by GOD's evaluation of how well their AI assistant understands them across categories such as shopping, social interactions, productivity, trading, and Web3. By integrating privacy, personalization, and trust, the GOD model provides a scalable, responsible path for advancing personal AI assistants. For community collaboration, part of the framework is open-sourced at https://github.com/PIN-AI/God-Model.
- Abstract(参考訳): パーソナルAIアシスタント(例:Apple Intelligence、Meta AI)は、日々のタスクを簡素化する積極的なレコメンデーションを提供するが、センシティブなユーザーデータへの依存は、プライバシと信頼に関する懸念を引き起こす。
これらの課題に対処するために、デバイス上でAIアシスタントを直接トレーニングし評価するためのセキュアでプライバシ保護のフレームワークであるGuardian of Data(GOD)を紹介します。
従来のベンチマークとは異なり、GODモデルは、ユーザデータと自律性を保護するギフトを推奨するなど、アシスタントがユーザニーズをいかに予測できるかを測定する。
AIスクールのように機能し、ユーザクエリをシミュレートし、カリキュラムベースのアプローチを使用して、各アシスタントのパフォーマンスを向上することで、コールドスタート問題に対処する。
信頼された実行環境(TEE)内で実行することで、AIレコメンデーションを洗練させるために強化と模倣学習を適用しながら、ユーザデータを保護します。
トークンベースのインセンティブシステムは、データを安全に共有することを奨励し、継続的な改善を促進するデータフライホイールを作成する。
具体的には、ユーザはデータをマイニングし、そのマイニングレートは、ショッピング、ソーシャルインタラクション、生産性、トレーディング、Web3といったカテゴリでAIアシスタントがいかによく理解しているかを評価することで決定される。
プライバシ、パーソナライゼーション、信頼を統合することで、GODモデルは、パーソナルAIアシスタントを前進させるためのスケーラブルで責任あるパスを提供する。
コミュニティのコラボレーションのために、フレームワークの一部はhttps://github.com/PIN-AI/God-Model.comでオープンソース化されている。
関連論文リスト
- Privacy Preservation in Gen AI Applications [0.0]
LLM(Large Language Models)は、意図せずユーザインタラクションからPII(Personally Identible Information)を吸収し、明らかにする。
ディープニューラルネットワークの複雑さは、プライベート情報の意図しない保存とリリースの追跡や停止を困難にしている。
本研究では,データ抽出やモデルインバージョン,メンバシップ推論といった攻撃を通じて生成AIの弱点を検出することで,これらの問題に対処する。
LLMを扱う前にPIIを識別、変更、削除する手法を使用することで、機能を犠牲にすることなくプライバシを確保する。
論文 参考訳(メタデータ) (2025-04-12T06:19:37Z) - AgentDAM: Privacy Leakage Evaluation for Autonomous Web Agents [75.85554113398626]
我々は、既存のAIエージェントと将来のAIエージェントが、潜在的にプライベートな情報の処理をどの程度制限できるかを評価するために、AgentDAMと呼ばれるベンチマークを開発する。
我々のベンチマークは、現実的なWebインタラクションシナリオをシミュレートし、既存のWebナビゲーションエージェントすべてに適用できる。
論文 参考訳(メタデータ) (2025-03-12T19:30:31Z) - PersonaBench: Evaluating AI Models on Understanding Personal Information through Accessing (Synthetic) Private User Data [76.21047984886273]
パーソナライゼーションは、AIアシスタント、特に個々のユーザーと連携するプライベートAIモデルのコンテキストにおいて重要である。
このようなデータのセンシティブな性質のため、AIモデルのユーザ理解能力を評価するためのデータセットは公開されていない。
多様なユーザプロファイルを作成する合成データ生成パイプラインと、人間の活動をシミュレートするプライベートドキュメントを導入する。
論文 参考訳(メタデータ) (2025-02-28T00:43:35Z) - SmartAgent: Chain-of-User-Thought for Embodied Personalized Agent in Cyber World [50.937342998351426]
COUT(Chain-of-User-Thought)は、新しい推論パラダイムである。
我々は、サイバー環境を認識し、パーソナライズされた要求を推論するエージェントフレームワークであるSmartAgentを紹介する。
我々の研究は、まずCOUTプロセスを定式化し、パーソナライズされたエージェント学習を具体化するための予備的な試みとして役立ちます。
論文 参考訳(メタデータ) (2024-12-10T12:40:35Z) - DiReDi: Distillation and Reverse Distillation for AIoT Applications [10.728511433896442]
ユーザによるエッジAIモデルの不適切なローカルトレーニングや微調整は、モデル誤動作につながる可能性がある。
本稿では,知識蒸留と逆蒸留を含む「DiReDi」という革新的な枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-12T06:02:44Z) - The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - On Responsible Machine Learning Datasets with Fairness, Privacy, and Regulatory Norms [56.119374302685934]
AI技術の信頼性に関する深刻な懸念があった。
機械学習とディープラーニングのアルゴリズムは、開発に使用されるデータに大きく依存する。
本稿では,責任あるルーブリックを用いてデータセットを評価するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:01:53Z) - Privacy Risks in Reinforcement Learning for Household Robots [42.675213619562975]
プライバシーは、ロボットが実質的な個人情報にアクセスすることによって、具体化されたAIの領域における重要な関心事として浮上する。
本稿では,値に基づくアルゴリズムと勾配に基づくアルゴリズムのトレーニングプロセスに対する攻撃を提案し,状態,行動,監督信号の再構成に勾配インバージョンを利用する。
論文 参考訳(メタデータ) (2023-06-15T16:53:26Z) - FedBot: Enhancing Privacy in Chatbots with Federated Learning [0.0]
Federated Learning(FL)は、データをその場所に保持する分散学習方法を通じて、データのプライバシを保護することを目的としている。
POCはDeep Bidirectional Transformerモデルとフェデレーション学習アルゴリズムを組み合わせて、コラボレーティブモデルトレーニング中の顧客のデータプライバシを保護する。
このシステムは、過去のインタラクションから学習する能力を活用することで、時間とともにパフォーマンスと精度を向上させるように設計されている。
論文 参考訳(メタデータ) (2023-04-04T23:13:52Z) - Warmup and Transfer Knowledge-Based Federated Learning Approach for IoT
Continuous Authentication [34.6454670154373]
本稿では,ユーザデータの匿名性を保護し,データのセキュリティを維持する新しいフェデレートラーニング(FL)手法を提案する。
ユーザプライバシとデータセキュリティを維持しながら,ユーザ認証の精度を大幅に向上させる実験を行った。
論文 参考訳(メタデータ) (2022-11-10T15:51:04Z) - Can Foundation Models Help Us Achieve Perfect Secrecy? [11.073539163281524]
機械学習の鍵となる約束は、ユーザーをパーソナルなタスクで支援する能力である。
金の標準プライバシー保護システムは、完全な機密性を満たすだろう。
しかし、プライバシーと品質は、個人業務のために既存のシステムでは緊張しているようだ。
論文 参考訳(メタデータ) (2022-05-27T02:32:26Z) - Privacy-Preserving Learning of Human Activity Predictors in Smart
Environments [5.981641988736108]
我々は、最先端のディープニューラルネットワークに基づく手法を用いて、予測された人間の活動モデルを学ぶ。
我々の研究の新たな側面は、学習者が利用できるデータの時間的進化と、利用者が共有するデータを注意深く追跡することである。
論文 参考訳(メタデータ) (2021-01-17T01:04:53Z) - Federated Learning of User Authentication Models [69.93965074814292]
機械学習モデルのプライバシー保護のためのフレームワークであるFederated User Authentication (FedUA)を提案する。
FedUAは、フェデレートされた学習フレームワークを採用して、ユーザが生の入力を共有することなく、共同でモデルをトレーニングできるようにする。
提案手法はプライバシ保護であり,多数のユーザに対してスケーラブルであることを示し,出力層を変更することなく,新たなユーザをトレーニングに追加できるようにした。
論文 参考訳(メタデータ) (2020-07-09T08:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。