論文の概要: VaultGemma: A Differentially Private Gemma Model
- arxiv url: http://arxiv.org/abs/2510.15001v1
- Date: Wed, 15 Oct 2025 21:59:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.309764
- Title: VaultGemma: A Differentially Private Gemma Model
- Title(参考訳): VaultGemma: 異なるプライベートなGemmaモデル
- Authors: Amer Sinha, Thomas Mesnard, Ryan McKenna, Daogao Liu, Christopher A. Choquette-Choo, Yangsibo Huang, Da Yu, George Kaissis, Zachary Charles, Ruibo Liu, Lynn Chua, Pritish Kamath, Pasin Manurangsi, Steve He, Chiyuan Zhang, Badih Ghazi, Borja De Balle Pigem, Prem Eruvbetine, Tris Warkentin, Armand Joulin, Ravi KumarAmer Sinha, Thomas Mesnard, Ryan McKenna, Daogao Liu, Christopher A. Choquette-Choo, Yangsibo Huang, Da Yu, George Kaissis, Zachary Charles, Ruibo Liu, Lynn Chua, Pritish Kamath, Pasin Manurangsi, Steve He, Chiyuan Zhang, Badih Ghazi, Borja De Balle Pigem, Prem Eruvbetine, Tris Warkentin, Armand Joulin, Ravi Kumar,
- Abstract要約: Gemmaファミリー内の10億のパラメータモデルであるVaultGemma 1Bを導入し、差分プライバシーを十分に訓練した。
私たちはこのモデルをコミュニティに公開しています。
- 参考スコア(独自算出の注目度): 130.51652849962065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce VaultGemma 1B, a 1 billion parameter model within the Gemma family, fully trained with differential privacy. Pretrained on the identical data mixture used for the Gemma 2 series, VaultGemma 1B represents a significant step forward in privacy-preserving large language models. We openly release this model to the community
- Abstract(参考訳): Gemmaファミリー内の10億のパラメータモデルであるVaultGemma 1Bを導入し、差分プライバシーを十分に訓練した。
VaultGemma 1Bは、Gemma 2シリーズで使われているのと同じデータ混合物に基づいており、プライバシー保護のための大きな言語モデルにおいて重要な一歩である。
私たちはこのモデルをコミュニティに公開しています
関連論文リスト
- Gemma 3 Technical Report [198.3299202423321]
Gemma 3は、軽量オープンモデルのGemmaファミリに対するマルチモーダルな追加である。
このバージョンでは、視覚理解能力、より広範な言語カバレッジ、より長いコンテキストが導入されている。
また、長いコンテキストで爆発しがちなKVキャッシュメモリを減らすために、モデルのアーキテクチャを変更します。
論文 参考訳(メタデータ) (2025-03-25T15:52:34Z) - Gemma 2: Improving Open Language Models at a Practical Size [118.04200128754249]
Gemma 2は、軽量で最先端のオープンモデルであるGemmaファミリの新しい追加である。
我々はTransformerアーキテクチャにいくつかの技術的変更を適用し、例えば、ローカル・グローバル・アテンションをインターリーブする。
結果として得られたモデルは、そのサイズで最高のパフォーマンスを提供し、さらに2~3倍の大きさのモデルに対して、競争力のある代替手段を提供する。
論文 参考訳(メタデータ) (2024-07-31T19:13:07Z) - Gemma: Open Models Based on Gemini Research and Technology [128.57714343844074]
Gemmaは、Geminiモデルを作成するために使用される研究と技術から構築された、軽量で最先端のオープンモデルのファミリーである。
Gemmaモデルは、言語理解、推論、安全性のための学術ベンチマークで強力なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-03-13T06:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。