論文の概要: Slice or the Whole Pie? Utility Control for AI Models
- arxiv url: http://arxiv.org/abs/2508.06551v1
- Date: Wed, 06 Aug 2025 03:45:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.429311
- Title: Slice or the Whole Pie? Utility Control for AI Models
- Title(参考訳): Slice or the Whole Pie? AIモデルのためのユーティリティコントロール
- Authors: Ye Tao,
- Abstract要約: NNObfuscatorを使うと、単一のモデルをリアルタイムで適用でき、複数のレベルのパフォーマンスへのアクセスを制御することができる。
このメカニズムにより、モデル所有者は階層化されたアクセスを設定でき、フリーティアのユーザがベースラインレベルのパフォーマンスを享受でき、プレミアムのユーザは機能強化の恩恵を受けることができる。
実験の結果,NNObfuscatorはモデルに適応性を持たせることができた。
- 参考スコア(独自算出の注目度): 9.587648499842185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training deep neural networks (DNNs) has become an increasingly resource-intensive task, requiring large volumes of labeled data, substantial computational power, and considerable fine-tuning efforts to achieve optimal performance across diverse use cases. Although pre-trained models offer a useful starting point, adapting them to meet specific user needs often demands extensive customization, and infrastructure overhead. This challenge grows when a single model must support diverse appli-cations with differing requirements for performance. Traditional solutions often involve training multiple model versions to meet varying requirements, which can be inefficient and difficult to maintain. In order to overcome this challenge, we propose NNObfuscator, a novel utility control mechanism that enables AI models to dynamically modify their performance according to predefined conditions. It is different from traditional methods that need separate models for each user. Instead, NNObfuscator allows a single model to be adapted in real time, giving you controlled access to multiple levels of performance. This mechanism enables model owners set up tiered access, ensuring that free-tier users receive a baseline level of performance while premium users benefit from enhanced capabilities. The approach improves resource allocation, reduces unnecessary computation, and supports sustainable business models in AI deployment. To validate our approach, we conducted experiments on multiple tasks, including image classification, semantic segmentation, and text to image generation, using well-established models such as ResNet, DeepLab, VGG16, FCN and Stable Diffusion. Experimental results show that NNObfuscator successfully makes model more adaptable, so that a single trained model can handle a broad range of tasks without requiring a lot of changes.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)のトレーニングは、大量のラベル付きデータ、相当な計算能力、さまざまなユースケースで最適なパフォーマンスを達成するための大幅な微調整など、ますますリソース集約的なタスクになっている。
事前訓練されたモデルは有用な出発点を提供するが、特定のユーザーのニーズを満たすようにそれらを適用するには、広範囲のカスタマイズとインフラのオーバーヘッドが必要になることが多い。
この課題は、単一モデルがパフォーマンスの要件が異なる多様なアグリケーションをサポートする必要がある場合に増加する。
従来のソリューションでは、さまざまな要件を満たすために、複数のモデルバージョンをトレーニングすることが多い。
この課題を克服するために,我々は,AIモデルが事前に定義された条件に従って動的に性能を変更可能な,新しいユーティリティ制御機構であるNNObfuscatorを提案する。
ユーザ毎に別々のモデルを必要とする従来の方法とは異なる。
代わりに、NNObfuscatorは単一のモデルをリアルタイムで適用することができ、複数のレベルのパフォーマンスへのアクセスを制御することができる。
このメカニズムにより、モデル所有者は階層化されたアクセスを設定でき、フリーティアのユーザがベースラインレベルのパフォーマンスを享受でき、プレミアムのユーザは機能強化の恩恵を受けることができる。
このアプローチはリソース割り当てを改善し、不要な計算を削減し、AIデプロイメントにおける持続可能なビジネスモデルをサポートする。
提案手法を検証するために,ResNet,DeepLab,VGG16,FCN,Stable Diffusionなどの確立したモデルを用いて,画像分類,セマンティックセグメンテーション,テキストから画像生成を含む複数のタスクの実験を行った。
実験の結果,NNObfuscatorはモデルに適応性を持たせることができた。
関連論文リスト
- EfficientLLaVA:Generalizable Auto-Pruning for Large Vision-language Models [64.18350535770357]
マルチモーダル推論の効率を高めるために,大規模視覚言語モデルの自動プルーニング手法を提案する。
提案手法では,所望のプルーニングポリシーを探索するために,少数のサンプルのみを活用する。
視覚的質問応答のためのScienceQA, Vizwiz, MM-vet, LLaVA-Benchデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2025-03-19T16:07:04Z) - Dynamic Pre-training: Towards Efficient and Scalable All-in-One Image Restoration [100.54419875604721]
オールインワン画像復元は、各分解に対してタスク固有の非ジェネリックモデルを持たずに、統一されたモデルで異なるタイプの劣化に対処する。
我々は、オールインワン画像復元タスクのためのエンコーダデコーダ方式で設計されたネットワークの動的ファミリであるDyNetを提案する。
我々のDyNetは、よりバルク化と軽量化をシームレスに切り替えることができるので、効率的なモデルデプロイメントのための柔軟性を提供します。
論文 参考訳(メタデータ) (2024-04-02T17:58:49Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - SortedNet: A Scalable and Generalized Framework for Training Modular Deep Neural Networks [30.069353400127046]
我々は、ディープニューラルネットワーク(DNN)の固有のモジュラリティを活用するためにSortedNetを提案する。
SortedNetは、メインモデルのトレーニングと同時にサブモデルのトレーニングを可能にする。
一度に160台のサブモデルを訓練でき、オリジナルのモデルの性能の少なくとも96%を達成できる。
論文 参考訳(メタデータ) (2023-09-01T05:12:25Z) - eP-ALM: Efficient Perceptual Augmentation of Language Models [70.47962271121389]
本稿では,既存モデルの適応性を向上するための直接的な取り組みを提案し,認識を伴う言語モデルの拡張を提案する。
視覚言語タスクに事前訓練されたモデルを適用するための既存のアプローチは、その効率を妨げているいくつかの重要なコンポーネントに依存している。
総パラメータの99%以上を凍結し,1つの直線射影層のみをトレーニングし,1つのトレーニング可能なトークンのみを予測することにより,我々のアプローチ(eP-ALM)は,VQAとCaptioningの他のベースラインよりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2023-03-20T19:20:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。