論文の概要: Building a Domain-specific Guardrail Model in Production
- arxiv url: http://arxiv.org/abs/2408.01452v1
- Date: Wed, 24 Jul 2024 15:53:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 04:59:02.224247
- Title: Building a Domain-specific Guardrail Model in Production
- Title(参考訳): 生産におけるドメイン固有のガードレールモデルの構築
- Authors: Mohammad Niknazar, Paul V Haley, Latha Ramanan, Sang T. Truong, Yedendra Shrinivasan, Ayan Kumar Bhowmick, Prasenjit Dey, Ashish Jagmohan, Hema Maheshwari, Shom Ponoth, Robert Smith, Aditya Vempaty, Nick Haber, Sanmi Koyejo, Sharad Sundararajan,
- Abstract要約: 我々は、K-12教育プラットフォーム向けのプロダクショングレードガードレールモデルの構築経験について述べる。
ドメイン固有のガードレールモデルのトレーニングとベンチマークについて説明する。
アーキテクチャに関する選択と、本番環境にデプロイするための最適化について、詳しく説明します。
- 参考スコア(独自算出の注目度): 10.859063703089236
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI holds the promise of enabling a range of sought-after capabilities and revolutionizing workflows in various consumer and enterprise verticals. However, putting a model in production involves much more than just generating an output. It involves ensuring the model is reliable, safe, performant and also adheres to the policy of operation in a particular domain. Guardrails as a necessity for models has evolved around the need to enforce appropriate behavior of models, especially when they are in production. In this paper, we use education as a use case, given its stringent requirements of the appropriateness of content in the domain, to demonstrate how a guardrail model can be trained and deployed in production. Specifically, we describe our experience in building a production-grade guardrail model for a K-12 educational platform. We begin by formulating the requirements for deployment to this sensitive domain. We then describe the training and benchmarking of our domain-specific guardrail model, which outperforms competing open- and closed- instruction-tuned models of similar and larger size, on proprietary education-related benchmarks and public benchmarks related to general aspects of safety. Finally, we detail the choices we made on architecture and the optimizations for deploying this service in production; these range across the stack from the hardware infrastructure to the serving layer to language model inference optimizations. We hope this paper will be instructive to other practitioners looking to create production-grade domain-specific services based on generative AI and large language models.
- Abstract(参考訳): ジェネレーティブAIは、さまざまなコンシューマーおよびエンタープライズ分野のワークフローに革命をもたらすさまざまな機能を実現するという約束を掲げている。
しかしながら、モデルを本番環境に配置するには、単に出力を生成するだけではない。
モデルが信頼され、安全で、パフォーマンスが保証され、特定のドメインにおけるオペレーションのポリシーに準拠します。
モデルに必要なガードレールは、特に本番環境では、モデルの適切な振る舞いを強制する必要があるために進化しています。
本稿では,ドメイン内のコンテンツの適切性に関する厳密な要件を前提として,教育をユースケースとして,ガードレールモデルをどのようにトレーニングし,本番環境に展開するかを実証する。
具体的には、K-12教育プラットフォーム向けのプロダクショングレードガードレールモデルの構築経験について述べる。
まずは、このセンシティブなドメインへのデプロイメントの要件を定式化することから始めます。
次に、我々のドメイン固有のガードレールモデルのトレーニングとベンチマークについて説明する。これは、プロプライエタリな教育関連ベンチマークや、安全の一般的な側面に関連する公開ベンチマークにおいて、類似および大規模のオープンおよびクローズドな命令調整モデルよりも優れている。
最後に、アーキテクチャに関する選択と、本番環境にデプロイするための最適化について詳述します。これらは、ハードウェアインフラストラクチャからサービス層、言語モデル推論の最適化に至るまで、スタックを越えています。
この論文は、生成型AIと大規模言語モデルに基づいて、プロダクショングレードのドメイン固有サービスを作成しようとしている他の実践者に対して、インストラクティブになることを願っている。
関連論文リスト
- Towards Synthetic Trace Generation of Modeling Operations using In-Context Learning Approach [1.8874331450711404]
本稿では,イベントログのモデリング,インテリジェントなモデリングアシスタント,モデリング操作の生成を組み合わせた概念的フレームワークを提案する。
特に、アーキテクチャは、設計者がシステムを指定するのを助け、その操作をグラフィカルなモデリング環境内で記録し、関連する操作を自動的に推奨する、モデリングコンポーネントから構成される。
論文 参考訳(メタデータ) (2024-08-26T13:26:44Z) - Apple Intelligence Foundation Language Models [109.60033785567484]
本報告では、モデルアーキテクチャ、モデルトレーニングに使用されるデータ、トレーニングプロセス、評価結果について述べる。
私たちは、Responsible AIと、モデル開発全体を通して原則がどのように適用されているかに重点を置いています。
論文 参考訳(メタデータ) (2024-07-29T18:38:49Z) - Data Shapley in One Training Run [88.59484417202454]
Data Shapleyは、機械学習コンテキストにおけるデータのコントリビューションに寄与するための、原則化されたフレームワークを提供する。
既存のアプローチでは、計算集約的な異なるデータサブセット上の再学習モデルが必要である。
本稿では、対象とするデータモデルに対するスケーラブルなデータ属性を提供することにより、これらの制限に対処するIn-Run Data Shapleyを紹介する。
論文 参考訳(メタデータ) (2024-06-16T17:09:24Z) - Transformer Architecture for NetsDB [0.0]
我々はNetsDBで機能するディープラーニングモデルのためのトランスフォーマーのエンドツーエンド実装を作成します。
分散処理、デプロイメント、効率的な推論のために、当社のモデルから重みをロードします。
論文 参考訳(メタデータ) (2024-05-08T04:38:36Z) - Reusable MLOps: Reusable Deployment, Reusable Infrastructure and
Hot-Swappable Machine Learning models and services [0.0]
私たちは、Reusable MLOpsと呼ばれるAI/MLオペレーションの分野で、持続可能な新しい概念を紹介します。
既存のデプロイメントとインフラストラクチャを再利用して、インフラストラクチャやマイクロサービスを分解することなく、それらをホットスワッピングすることで、新しいモデルを提供しています。
論文 参考訳(メタデータ) (2024-02-19T23:40:46Z) - Towards Scalable and Robust Model Versioning [30.249607205048125]
ディープラーニングモデルへのアクセスを目的とした悪意ある侵入が増えている。
異なる攻撃特性を持つモデルの複数バージョンを生成する方法を示す。
モデル学習データにパラメータ化された隠れ分布を組み込むことでこれを実現できることを示す。
論文 参考訳(メタデータ) (2024-01-17T19:55:49Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Model Reuse with Reduced Kernel Mean Embedding Specification [70.044322798187]
現在のアプリケーションで有用なモデルを見つけるための2段階のフレームワークを提案する。
アップロードフェーズでは、モデルがプールにアップロードされている場合、モデルの仕様としてカーネル平均埋め込み(RKME)を縮小する。
デプロイフェーズでは、RKME仕様の値に基づいて、現在のタスクと事前訓練されたモデルの関連性を測定する。
論文 参考訳(メタデータ) (2020-01-20T15:15:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。