論文の概要: Privacy in Foundation Models: A Conceptual Framework for System Design
- arxiv url: http://arxiv.org/abs/2311.06998v2
- Date: Tue, 10 Dec 2024 09:35:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:32:50.034518
- Title: Privacy in Foundation Models: A Conceptual Framework for System Design
- Title(参考訳): ファウンデーションモデルにおけるプライバシ:システム設計のための概念的フレームワーク
- Authors: Tingting Bi, Guangsheng Yu, Qin Wang,
- Abstract要約: ファンデーションモデルは、大きな課題と素晴らしい機会の両方を示します。
現在、プライバシー評価プロセスが包含すべき技術的問題と非技術的問題の両方の包括的範囲について合意が得られていない。
本稿では、複数の視点から様々な責任あるAIパターンを統合する新しい概念的枠組みを紹介する。
- 参考スコア(独自算出の注目度): 3.438211531047665
- License:
- Abstract: AI and its relevant technologies, including machine learning, deep learning, chatbots, virtual assistants, and others, are currently undergoing a profound transformation of development and organizational processes within companies. Foundation models present both significant challenges and incredible opportunities. In this context, ensuring the quality attributes of foundation model-based systems is of paramount importance, and with a particular focus on the challenging issue of privacy due to the sensitive nature of the data and information involved. However, there is currently a lack of consensus regarding the comprehensive scope of both technical and non-technical issues that the privacy evaluation process should encompass. Additionally, there is uncertainty about which existing methods are best suited to effectively address these privacy concerns. In response to this challenge, this paper introduces a novel conceptual framework that integrates various responsible AI patterns from multiple perspectives, with the specific aim of safeguarding privacy.
- Abstract(参考訳): AIとその関連技術(機械学習、ディープラーニング、チャットボット、バーチャルアシスタントなど)は、現在、企業内における開発プロセスと組織プロセスの大幅な変革を進めている。
ファンデーションモデルは、大きな課題と素晴らしい機会の両方を示します。
この文脈では、基礎モデルに基づくシステムの品質特性を保証することが最重要であり、特にデータと関連する情報の機密性に起因するプライバシーの問題に焦点を当てている。
しかし、現在、プライバシー評価プロセスが包含すべき技術的問題と非技術的問題の両方の包括的範囲について合意が得られていない。
さらに、これらのプライバシーの懸念に効果的に対処するのにどの方法が最適かは不確実である。
この課題に対応するために,我々は,プライバシ保護を念頭に,複数の視点からさまざまな責任あるAIパターンを統合する,新しい概念的枠組みを提案する。
関連論文リスト
- Ten Challenging Problems in Federated Foundation Models [55.343738234307544]
フェデレーション・ファンデーション・モデル(Federated Foundation Models、FedFM)は、フェデレーション・モデルの一般的な能力とフェデレーション・ラーニングのプライバシー保護能力を融合させる分散学習パラダイムである。
本稿では,FedFMに固有の10の課題について,基礎理論,プライベートデータの利用,継続学習,非学習,非IIDおよびグラフデータ,双方向知識伝達,インセンティブ機構設計,ゲーム機構設計,モデル透かし,効率を包括的に要約する。
論文 参考訳(メタデータ) (2025-02-14T04:01:15Z) - Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [61.633126163190724]
精神病は、社会的、個人的コストがかなり高い広範囲で不安定な状態である。
近年の人工知能(AI)の進歩は、うつ病、不安障害、双極性障害、統合失調症、外傷後ストレス障害などの病態を認識し、対処するための大きな可能性を秘めている。
データセットやトレーニング済みモデルからの機密データ漏洩のリスクを含むプライバシー上の懸念は、これらのAIシステムを実際の臨床環境にデプロイする上で、依然として重要な障壁である。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Artificial Intelligence-Driven Clinical Decision Support Systems [5.010570270212569]
この章は、医療で信頼できるAIシステムを作るには、公平さ、説明可能性、プライバシーを慎重に考慮する必要があることを強調している。
AIによる公平な医療提供を保証するという課題は強調され、臨床予測モデルのバイアスを特定し緩和する方法が議論されている。
この議論は、ディープラーニングモデルのデータ漏洩からモデル説明に対する高度な攻撃に至るまで、医療AIシステムのプライバシ脆弱性の分析に進展している。
論文 参考訳(メタデータ) (2025-01-16T16:17:39Z) - Privacy in Fine-tuning Large Language Models: Attacks, Defenses, and Future Directions [11.338466798715906]
細調整された大規模言語モデル(LLM)は、様々な領域で最先端のパフォーマンスを達成することができる。
本稿では、微調整LDMに関連するプライバシー問題に関する包括的調査を行う。
メンバーシップ推論、データ抽出、バックドア攻撃など、さまざまなプライバシ攻撃に対する脆弱性を強調します。
論文 参考訳(メタデータ) (2024-12-21T06:41:29Z) - Machine Unlearning Doesn't Do What You Think: Lessons for Generative AI Policy, Research, and Practice [186.055899073629]
非学習はしばしば、生成AIモデルからターゲット情報の影響を取り除くソリューションとして呼び出される。
未学習はまた、モデルが出力中にターゲットとなるタイプの情報を生成するのを防ぐ方法として提案されている。
これら2つの目標 - モデルからの情報の標的的除去と、モデル出力からの情報のターゲット的抑制 - は、様々な技術的および現実的な課題を表す。
論文 参考訳(メタデータ) (2024-12-09T20:18:43Z) - Centering Policy and Practice: Research Gaps around Usable Differential Privacy [12.340264479496375]
我々は、差分プライバシーは理論上はクリーンな定式化であるが、実際は重大な課題を提起していると論じている。
差分プライバシーの約束と現実世界のユーザビリティのギャップを埋めるために、研究者と実践者は協力しなければなりません。
論文 参考訳(メタデータ) (2024-06-17T21:32:30Z) - State-of-the-Art Approaches to Enhancing Privacy Preservation of Machine Learning Datasets: A Survey [0.9208007322096533]
本稿では、機械学習(ML)の進化する展望と、その様々な分野における大きな影響について考察する。
プライバシ保護機械学習(PPML)の新たな分野に焦点を当てている。
MLアプリケーションは、通信、金融技術、監視といった産業にとってますます不可欠なものになりつつあるため、プライバシー上の懸念が高まる。
論文 参考訳(メタデータ) (2024-02-25T17:31:06Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Advancing Differential Privacy: Where We Are Now and Future Directions for Real-World Deployment [100.1798289103163]
差分プライバシ(DP)分野における現状と現状の方法論の詳細なレビューを行う。
論文のポイントとハイレベルな内容は,「認知プライバシ(DP:次のフロンティアへの挑戦)」の議論から生まれた。
この記事では、プライバシの領域におけるアルゴリズムおよび設計決定の基準点を提供することを目標とし、重要な課題と潜在的研究の方向性を強調します。
論文 参考訳(メタデータ) (2023-04-14T05:29:18Z) - 10 Security and Privacy Problems in Large Foundation Models [69.70602220716718]
事前トレーニングされたファンデーションモデルは、AIエコシステムの'オペレーティングシステム'のようなものです。
事前訓練されたファンデーションモデルのセキュリティやプライバシの問題は、AIエコシステムの単一障害点につながる。
本章では、事前訓練された基礎モデルのセキュリティとプライバシに関する10の基本的な問題について論じる。
論文 参考訳(メタデータ) (2021-10-28T21:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。