論文の概要: Token is All You Price
- arxiv url: http://arxiv.org/abs/2510.09859v1
- Date: Fri, 10 Oct 2025 20:49:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 20:23:38.917867
- Title: Token is All You Price
- Title(参考訳): Tokenは、あなただけの価格だ
- Authors: Weijie Zhong,
- Abstract要約: 単一の整列(ユーザ-最適)モデルをデプロイし、トークンキャップをユーザをスクリーニングする唯一の手段とする。
この設計は、モデルのトレーニングを価格から切り離し、トークン計測で容易に実装し、ミスアライメント圧力を軽減します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We build a mechanism design framework where a platform designs GenAI models to screen users who obtain instrumental value from the generated conversation and privately differ in their preference for latency. We show that the revenue-optimal mechanism is simple: deploy a single aligned (user-optimal) model and use token cap as the only instrument to screen the user. The design decouples model training from pricing, is readily implemented with token metering, and mitigates misalignment pressures.
- Abstract(参考訳): 我々は、プラットフォームがGenAIモデルを設計し、生成した会話から道具的価値を得たユーザをスクリーニングするメカニズム設計フレームワークを構築し、レイテンシの好みを個人的に異なるものにする。
単一の整列(ユーザ-最適)モデルをデプロイし、トークンキャップをユーザをスクリーニングする唯一の手段とする。
この設計は、モデルのトレーニングを価格から切り離し、トークン計測で容易に実装し、ミスアライメント圧力を軽減します。
関連論文リスト
- PESTO: Real-Time Pitch Estimation with Self-supervised Transposition-equivariant Objective [11.413659213310696]
PESTOは単ピッチ推定のための自己教師付き学習手法である。
キャッシュ型畳み込みを用いたストリーム可能なVQT実装を開発した。
論文 参考訳(メタデータ) (2025-08-02T21:00:55Z) - Inference economics of language models [0.0]
我々は,トークン単位のコストとシリアルトークン生成速度の間の経済的トレードオフに対処する理論モデルを開発する。
我々のモデルは、演算、メモリ帯域幅、ネットワーク帯域幅および遅延制約を考慮している。
論文 参考訳(メタデータ) (2025-06-05T05:28:09Z) - Is Your LLM Overcharging You? Tokenization, Transparency, and Incentives [13.91198481393699]
我々は,疑念を抱くことなく,利用者を著しく過給できる効率的なアルゴリズムを開発した。
戦略化のための金銭的インセンティブをなくすためには、価格設定メカニズムは、文字数に応じてトークンを線形に価格設定する必要がある。
論文 参考訳(メタデータ) (2025-05-27T18:02:12Z) - Make Your Training Flexible: Towards Deployment-Efficient Video Models [22.727848052298427]
予算間での入力情報を最大化するための新しいテスト設定であるToken Optimizationを提案する。
サンプリンググリッドをフレキシブルにし、トークンの選択を活用することで、最も人気のあるビデオトレーニングフレームワークに容易に採用できる。
大規模なビデオ事前トレーニングにFluxを統合し、その結果のFluxViTは、標準的なコストで広範囲のタスクにまたがって、新たな最先端の結果を確立します。
論文 参考訳(メタデータ) (2025-03-18T13:15:58Z) - TokenFormer: Rethinking Transformer Scaling with Tokenized Model Parameters [102.1116808722299]
TokenFormerは、Transformerをスケールするためのスケーラブルなアーキテクチャです。
モデルパラメータをトークンとして扱うことで、トランスフォーマーのすべての線形射影を置き換える。
我々のモデルは、新しいキー値パラメータペアを漸進的に追加することで、124Mから1.4Bパラメータにスケールする。
論文 参考訳(メタデータ) (2024-10-30T16:19:00Z) - Towards Model-Driven Dashboard Generation for Systems-of-Systems [52.251635013691256]
本稿では、単純なダッシュボードモデルのリストをダッシュボードモデルに自動変換する、モデル駆動技術に依存しないアプローチについて述べる。
ダッシュボードのカスタマイズは抽象モデル表現を単に修正するだけで効率的に実現できる。
論文 参考訳(メタデータ) (2024-02-23T10:55:18Z) - Token Fusion: Bridging the Gap between Token Pruning and Token Merging [71.84591084401458]
ビジョントランスフォーマー(ViT)はコンピュータビジョンの強力なバックボーンとして登場し、多くの伝統的なCNNを上回っている。
計算オーバーヘッドは、主に自己アテンション機構によるもので、リソース制約のあるエッジデバイスへのデプロイが困難になる。
トークンプルーニングとトークンマージの両方のメリットを両立させる手法であるToken Fusion(ToFu)を紹介する。
論文 参考訳(メタデータ) (2023-12-02T04:29:19Z) - RIFormer: Keep Your Vision Backbone Effective While Removing Token Mixer [95.71132572688143]
本稿では,基本構造ブロックのトークンミキサーを除去しながら,視覚バックボーンを効果的に維持する方法について検討する。
視覚変換器(ViT)の自己アテンション(自己アテンション)としてのトークンミキサーは、異なる空間トークン間での情報通信を行うが、かなりの計算コストと遅延に悩まされる。
論文 参考訳(メタデータ) (2023-04-12T07:34:13Z) - Representation Deficiency in Masked Language Modeling [107.39136254013042]
我々は Masked Autoencoder アーキテクチャを事前トレーニングする MAE-LM を提案し,$tt[MASK]$トークンをエンコーダから除外する。
GLUE と SQuAD ベンチマークで微調整した場合,MAE-LM は,事前学習したモデルに対して,異なる事前学習設定とモデルサイズで一貫した性能を示した。
論文 参考訳(メタデータ) (2023-02-04T01:54:17Z) - SPViT: Enabling Faster Vision Transformers via Soft Token Pruning [38.10083471492964]
ハードウェア効率の伝統的なモデル圧縮パラダイムであるPruningは、様々なDNN構造に広く応用されている。
平板およびCNN型構造のバニラ変圧器に設定できる計算対応ソフトプルーニングフレームワークを提案する。
我々のフレームワークは、画像分類に匹敵する性能を維持しながら、ViTの計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2021-12-27T20:15:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。