論文の概要: GOD model: Privacy Preserved AI School for Personal Assistant
- arxiv url: http://arxiv.org/abs/2502.18527v1
- Date: Mon, 24 Feb 2025 20:30:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:59:30.437987
- Title: GOD model: Privacy Preserved AI School for Personal Assistant
- Title(参考訳): GODモデル: パーソナルアシスタントのためのプライバシ保護AIスクール
- Authors: PIN AI Team, Bill Qingyun Sun, Laura Florescu, Boliang Zhang, Regan Peng, Smile Hu, Shouqiao Wang, Ben Wu, Xi Wang, Davide Crapis, Gavin Zhen Guo,
- Abstract要約: 私たちは、デバイス上でAIアシスタントをトレーニングし評価するためのセキュアでプライバシー保護のフレームワークであるGuardian of Data(GOD)を紹介します。
GODは、ユーザデータと自律性を保護しながら贈り物を推奨するなど、アシスタントがユーザニーズをいかに予測できるかを測定します。
- 参考スコア(独自算出の注目度): 3.2060988232935337
- License:
- Abstract: Personal AI assistants (e.g., Apple Intelligence, Meta AI) offer proactive recommendations that simplify everyday tasks, but their reliance on sensitive user data raises concerns about privacy and trust. To address these challenges, we introduce the Guardian of Data (GOD), a secure, privacy-preserving framework for training and evaluating AI assistants directly on-device. Unlike traditional benchmarks, the GOD model measures how well assistants can anticipate user needs-such as suggesting gifts-while protecting user data and autonomy. Functioning like an AI school, it addresses the cold start problem by simulating user queries and employing a curriculum-based approach to refine the performance of each assistant. Running within a Trusted Execution Environment (TEE), it safeguards user data while applying reinforcement and imitation learning to refine AI recommendations. A token-based incentive system encourages users to share data securely, creating a data flywheel that drives continuous improvement. By integrating privacy, personalization, and trust, the GOD model provides a scalable, responsible path for advancing personal AI assistants. For community collaboration, part of the framework is open-sourced at https://github.com/PIN-AI/God-Model.
- Abstract(参考訳): パーソナルAIアシスタント(例:Apple Intelligence、Meta AI)は、日々のタスクを簡素化する積極的なレコメンデーションを提供するが、センシティブなユーザーデータへの依存は、プライバシと信頼に関する懸念を引き起こす。
これらの課題に対処するために、デバイス上でAIアシスタントを直接トレーニングし評価するためのセキュアでプライバシ保護のフレームワークであるGuardian of Data(GOD)を紹介します。
従来のベンチマークとは異なり、GODモデルは、ユーザデータと自律性を保護するギフトを推奨するなど、アシスタントがユーザニーズをいかに予測できるかを測定する。
AIスクールのように機能し、ユーザクエリをシミュレートし、カリキュラムベースのアプローチを使用して、各アシスタントのパフォーマンスを向上することで、コールドスタート問題に対処する。
信頼された実行環境(TEE)内で実行することで、AIレコメンデーションを洗練させるために強化と模倣学習を適用しながら、ユーザデータを保護します。
トークンベースのインセンティブシステムは、データを安全に共有することを奨励し、継続的な改善を促進するデータフライホイールを作成する。
プライバシ、パーソナライゼーション、信頼を統合することで、GODモデルは、パーソナルAIアシスタントを前進させるためのスケーラブルで責任あるパスを提供する。
コミュニティのコラボレーションのために、フレームワークの一部はhttps://github.com/PIN-AI/God-Model.comでオープンソース化されている。
関連論文リスト
- SmartAgent: Chain-of-User-Thought for Embodied Personalized Agent in Cyber World [50.937342998351426]
COUT(Chain-of-User-Thought)は、新しい推論パラダイムである。
我々は、サイバー環境を認識し、パーソナライズされた要求を推論するエージェントフレームワークであるSmartAgentを紹介する。
我々の研究は、まずCOUTプロセスを定式化し、パーソナライズされたエージェント学習を具体化するための予備的な試みとして役立ちます。
論文 参考訳(メタデータ) (2024-12-10T12:40:35Z) - Collaborative Instance Navigation: Leveraging Agent Self-Dialogue to Minimize User Input [54.81155589931697]
我々は,ナビゲーション中の動的エージェントと人間との相互作用を考慮したCoIN(Collaborative Instance Navigation)を提案する。
CoINに対処するために,新しいエージェント・ユーザ・インタラクションとUncerTainty Awareness (AIUTA)を提案する。
AIUTAは、最先端のメソッドに対するナビゲーションにおける競合的なパフォーマンスを実現し、ユーザの入力を処理する際の柔軟性を示している。
論文 参考訳(メタデータ) (2024-12-02T08:16:38Z) - DiReDi: Distillation and Reverse Distillation for AIoT Applications [10.728511433896442]
ユーザによるエッジAIモデルの不適切なローカルトレーニングや微調整は、モデル誤動作につながる可能性がある。
本稿では,知識蒸留と逆蒸留を含む「DiReDi」という革新的な枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-12T06:02:44Z) - The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - FedBot: Enhancing Privacy in Chatbots with Federated Learning [0.0]
Federated Learning(FL)は、データをその場所に保持する分散学習方法を通じて、データのプライバシを保護することを目的としている。
POCはDeep Bidirectional Transformerモデルとフェデレーション学習アルゴリズムを組み合わせて、コラボレーティブモデルトレーニング中の顧客のデータプライバシを保護する。
このシステムは、過去のインタラクションから学習する能力を活用することで、時間とともにパフォーマンスと精度を向上させるように設計されている。
論文 参考訳(メタデータ) (2023-04-04T23:13:52Z) - Warmup and Transfer Knowledge-Based Federated Learning Approach for IoT
Continuous Authentication [34.6454670154373]
本稿では,ユーザデータの匿名性を保護し,データのセキュリティを維持する新しいフェデレートラーニング(FL)手法を提案する。
ユーザプライバシとデータセキュリティを維持しながら,ユーザ認証の精度を大幅に向上させる実験を行った。
論文 参考訳(メタデータ) (2022-11-10T15:51:04Z) - Can Foundation Models Help Us Achieve Perfect Secrecy? [11.073539163281524]
機械学習の鍵となる約束は、ユーザーをパーソナルなタスクで支援する能力である。
金の標準プライバシー保護システムは、完全な機密性を満たすだろう。
しかし、プライバシーと品質は、個人業務のために既存のシステムでは緊張しているようだ。
論文 参考訳(メタデータ) (2022-05-27T02:32:26Z) - Privacy-Preserving Learning of Human Activity Predictors in Smart
Environments [5.981641988736108]
我々は、最先端のディープニューラルネットワークに基づく手法を用いて、予測された人間の活動モデルを学ぶ。
我々の研究の新たな側面は、学習者が利用できるデータの時間的進化と、利用者が共有するデータを注意深く追跡することである。
論文 参考訳(メタデータ) (2021-01-17T01:04:53Z) - Federated Learning of User Authentication Models [69.93965074814292]
機械学習モデルのプライバシー保護のためのフレームワークであるFederated User Authentication (FedUA)を提案する。
FedUAは、フェデレートされた学習フレームワークを採用して、ユーザが生の入力を共有することなく、共同でモデルをトレーニングできるようにする。
提案手法はプライバシ保護であり,多数のユーザに対してスケーラブルであることを示し,出力層を変更することなく,新たなユーザをトレーニングに追加できるようにした。
論文 参考訳(メタデータ) (2020-07-09T08:04:38Z) - Data-driven Koopman Operators for Model-based Shared Control of
Human-Machine Systems [66.65503164312705]
本稿では,データ駆動型共有制御アルゴリズムを提案する。
ユーザのインタラクションに関するダイナミクスと情報は、Koopman演算子を使用して観察から学習される。
モデルに基づく共有制御は、自然な学習やユーザのみの制御パラダイムと比較して、タスクとコントロールのメトリクスを著しく改善する。
論文 参考訳(メタデータ) (2020-06-12T14:14:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。