論文の概要: PAL*M: Property Attestation for Large Generative Models
- arxiv url: http://arxiv.org/abs/2601.16199v2
- Date: Sat, 24 Jan 2026 03:15:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 13:23:48.809871
- Title: PAL*M: Property Attestation for Large Generative Models
- Title(参考訳): PAL*M:大規模生成モデルの特性検証
- Authors: Prach Chantasantitam, Adam Ilyas Caulfield, Vasisht Duddu, Lachlan J. Gunn, N. Asokan,
- Abstract要約: 本稿では,大規模生成モデルのためのプロパティ検証フレームワークであるPAL*Mについて述べる。
PAL*Mは、トレーニングと推論にまたがるプロパティを定義し、CPU-GPU操作をカバーするために、セキュリティを意識したGPUを備えた機密仮想マシンを活用し、メモリマップされたデータセット上のインクリメンタルなマルチセットハッシュを使用して、その整合性を効率的に追跡することを提案している。
我々は、Intel TDXとNVIDIA H100にPAL*Mを実装し、効率的で、スケーラブルで、汎用的で、セキュアであることを示した。
- 参考スコア(独自算出の注目度): 9.787777791892784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning property attestations allow provers (e.g., model providers or owners) to attest properties of their models/datasets to verifiers (e.g., regulators, customers), enabling accountability towards regulations and policies. But, current approaches do not support generative models or large datasets. We present PAL*M, a property attestation framework for large generative models, illustrated using large language models. PAL*M defines properties across training and inference, leverages confidential virtual machines with security-aware GPUs for coverage of CPU-GPU operations, and proposes using incremental multiset hashing over memory-mapped datasets to efficiently track their integrity. We implement PAL*M on Intel TDX and NVIDIA H100, showing it is efficient, scalable, versatile, and secure.
- Abstract(参考訳): 機械学習プロパティの検証により、プロバー(例えばモデル提供者または所有者)は、モデル/データセットのプロパティを検証者(例えば、規制当局、顧客)に証明し、規制やポリシーに対する説明責任を可能にする。
しかし、現在のアプローチは生成モデルや大きなデータセットをサポートしない。
本稿では,大規模生成モデルのためのプロパティ検証フレームワークであるPAL*Mについて述べる。
PAL*Mは、トレーニングと推論にまたがるプロパティを定義し、CPU-GPU操作をカバーするために、セキュリティを意識したGPUを備えた機密仮想マシンを活用し、メモリマップされたデータセット上のインクリメンタルなマルチセットハッシュを使用して、その整合性を効率的に追跡することを提案している。
我々は、Intel TDXとNVIDIA H100にPAL*Mを実装し、効率的で、スケーラブルで、汎用的で、セキュアであることを示した。
関連論文リスト
- Ghost in the Transformer: Tracing LLM Lineage with SVD-Fingerprint [40.05267673405802]
大規模言語モデル(LLM)は急速に進歩し、様々な分野に広く採用されている。
多くの開発者は、既存のオープンソースモデルを微調整するか修正するかを選択する。
公的なモデルから明らかに派生したものの、オリジナルのトレーニングを誤って主張する者もいる。
これにより知的財産権保護への懸念が高まっている。
論文 参考訳(メタデータ) (2025-11-09T13:57:59Z) - Every Step Counts: Decoding Trajectories as Authorship Fingerprints of dLLMs [63.82840470917859]
本稿では,dLLMの復号化機構をモデル属性の強力なツールとして利用できることを示す。
本稿では、デコードステップ間の構造的関係を捉え、モデル固有の振る舞いをよりよく明らかにする、DDM(Directed Decoding Map)と呼ばれる新しい情報抽出手法を提案する。
論文 参考訳(メタデータ) (2025-10-02T06:25:10Z) - LASA: Enhancing SoC Security Verification with LLM-Aided Property Generation [7.52190283487474]
形式的プロパティ検証(FPV)は、設計の振る舞いをモデル化し、検証する機能を提供する。
現在のプラクティスでは、そのようなプロパティを作成するためにかなりの手作業が必要で、時間がかかり、コストがかかり、エラーが発生します。
本稿では,LLMと検索拡張生成(RAG)を活用して非空きセキュリティ特性を創出する新しいフレームワークであるLASAを提案する。
論文 参考訳(メタデータ) (2025-06-22T01:21:03Z) - Data-Juicer Sandbox: A Feedback-Driven Suite for Multimodal Data-Model Co-development [67.55944651679864]
統合データモデル共同開発に適した新しいサンドボックススイートを提案する。
このサンドボックスは、フィードバック駆動の実験プラットフォームを提供し、コスト効率とデータとモデルの両方のガイド付き洗練を可能にする。
論文 参考訳(メタデータ) (2024-07-16T14:40:07Z) - Laminator: Verifiable ML Property Cards using Hardware-assisted Attestations [10.278905067763686]
業界では、さまざまなプロパティのトレーニングデータセットとモデルを記述するために、モデルカードと検証可能なツールを採用しています。
我々はこれらの種類のカードを集合的に参照するためにMLプロパティカードという用語を作成した。
悪意のあるモデルプロバイダがMLプロパティカードに偽情報を含まないようにするには、検証が必要である。
論文 参考訳(メタデータ) (2024-06-25T13:36:53Z) - Dissecting Multimodality in VideoQA Transformer Models by Impairing Modality Fusion [54.33764537135906]
VideoQA Transformerモデルは標準ベンチマークで競合性能を示す。
これらのモデルはビデオとテキストからリッチなマルチモーダル構造とダイナミックスを一緒に捉えていますか?
彼らはバイアスと刺激的な特徴を利用して高いスコアを達成していますか?
論文 参考訳(メタデータ) (2023-06-15T06:45:46Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Paraphrastic Representations at Scale [134.41025103489224]
私たちは、英語、アラビア語、ドイツ語、フランス語、スペイン語、ロシア語、トルコ語、中国語の訓練されたモデルをリリースします。
我々はこれらのモデルを大量のデータでトレーニングし、元の論文から大幅に性能を向上した。
論文 参考訳(メタデータ) (2021-04-30T16:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。