論文の概要: Cost Transparency of Enterprise AI Adoption
- arxiv url: http://arxiv.org/abs/2511.11761v1
- Date: Fri, 14 Nov 2025 01:51:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.290851
- Title: Cost Transparency of Enterprise AI Adoption
- Title(参考訳): エンタープライズAI導入のコスト透明性
- Authors: Soogand Alavi, Salar Nozari, Andrea Luangrath,
- Abstract要約: 本研究では,言語スタイルの微妙な変化が,応答品質に影響を与えることなく,出力トークンの数を変化させることを示す。
非政治的なプロンプトは、企業コストの上昇とOpenAIのさらなる収益につながるアウトプットトークンを著しく増加させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in large language models (LLMs) have dramatically improved performance on a wide range of tasks, driving rapid enterprise adoption. Yet, the cost of adopting these AI services is understudied. Unlike traditional software licensing in which costs are predictable before usage, commercial LLM services charge per token of input text in addition to generated output tokens. Crucially, while firms can control the input, they have limited control over output tokens, which are effectively set by generation dynamics outside of business control. This research shows that subtle shifts in linguistic style can systematically alter the number of output tokens without impacting response quality. Using an experiment with OpenAI's API, this study reveals that non-polite prompts significantly increase output tokens leading to higher enterprise costs and additional revenue for OpenAI. Politeness is merely one instance of a broader phenomenon in which linguistic structure can drive unpredictable cost variation. For enterprises integrating LLM into applications, this unpredictability complicates budgeting and undermines transparency in business-to-business contexts. By demonstrating how end-user behavior links to enterprise costs through output token counts, this work highlights the opacity of current pricing models and calls for new approaches to ensure predictable and transparent adoption of LLM services.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、幅広いタスクのパフォーマンスを劇的に向上させ、急速に企業への採用を促している。
しかし、これらのAIサービスを採用するコストは過小評価されている。
使用前にコストを予測できる従来のソフトウェアライセンスとは異なり、商用のLLMサービスは出力トークンに加えて入力テキストのトークンごとに課金する。
重要なことは、企業は入力を制御できるが、出力トークンの制御は限られており、ビジネス制御以外のジェネレーションダイナミクスによって効果的に設定される。
この研究は、言語スタイルの微妙な変化が、応答品質に影響を与えることなく、出力トークンの数を体系的に変更できることを示唆している。
今回の調査では,OpenAIのAPIを使った実験により,企業コストの上昇とOpenAIの収益増加につながるアウトプットトークンが,非政治的なプロンプトとして大幅に増加することが明らかになった。
ポリテネスは、言語構造が予測不可能なコスト変動を引き起こす、より広範な現象の1つの例にすぎない。
LLMをアプリケーションに統合する企業にとって、この予測不可能性は予算を複雑にし、ビジネスとビジネスのコンテキストにおける透明性を損なう。
アウトプットトークンカウントを通じてエンドユーザの振る舞いがエンタープライズコストにどのようにリンクするかを示すことで、現在の価格モデルの不透明さを強調し、LLMサービスの予測可能かつ透過的な採用を保証するための新しいアプローチを求める。
関連論文リスト
- Is Your LLM Overcharging You? Tokenization, Transparency, and Incentives [13.91198481393699]
我々は,疑念を抱くことなく,利用者を著しく過給できる効率的なアルゴリズムを開発した。
戦略化のための金銭的インセンティブをなくすためには、価格設定メカニズムは、文字数に応じてトークンを線形に価格設定する必要がある。
論文 参考訳(メタデータ) (2025-05-27T18:02:12Z) - Invisible Tokens, Visible Bills: The Urgent Need to Audit Hidden Operations in Opaque LLM Services [22.700907666937177]
このポジションペーパーは、Opaque LLM Services(COLS)における新たな説明責任の課題を浮き彫りにしている。
トークンとコールカウントを人工的に膨らませるtextitquantity inflationと、プロバイダが低価格のモデルやツールを静かに置き換えるtextitquality downgradeの2つの主要なリスクを形式化する。
本研究では,COLSとユーザを対象としたモジュール型3層監査フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-24T02:26:49Z) - CoIn: Counting the Invisible Reasoning Tokens in Commercial Opaque LLM APIs [13.31195673556853]
隠れトークンの量と意味的妥当性の両方を検査する検証フレームワークであるCoInを提案する。
実験では、信頼できる第三者監査官としてデプロイされたCoInが、成功率94.7%に達するトークン数インフレーションを効果的に検出できることが示されている。
論文 参考訳(メタデータ) (2025-05-19T23:39:23Z) - Are You Getting What You Pay For? Auditing Model Substitution in LLM APIs [71.7892165868749]
LLM(Commercial Large Language Model) APIは基本的な信頼の問題を生み出します。
ユーザーは特定のモデルに課金するが、プロバイダが忠実に提供できることを保証することはない。
我々は,このモデル置換問題を定式化し,現実的な逆条件下での検出方法を評価する。
我々は,信頼された実行環境(TEE)を実用的で堅牢なソリューションとして使用し,評価する。
論文 参考訳(メタデータ) (2025-04-07T03:57:41Z) - CITER: Collaborative Inference for Efficient Large Language Model Decoding with Token-Level Routing [74.14816777318033]
Token-lEvel Routing(CITER)との協調推論は、小規模および大規模言語モデルの効率的な協調を可能にするフレームワークである。
ルータの学習をポリシー最適化として定式化し、予測の質と生成の推論コストの両方に基づいて報酬を受け取る。
実験の結果,CITERは高品質な生成を保ちながら推論コストを低減し,リアルタイムおよびリソース制約のあるアプリケーションに対して有望なソリューションを提供することがわかった。
論文 参考訳(メタデータ) (2025-02-04T03:36:44Z) - Large Language Models for Supply Chain Optimization [4.554094815136834]
大規模言語モデル(LLM)がサプライチェーンの自動化と人間の理解と信頼のギャップを埋めるのにどのように役立つかを検討する。
我々はOptiGuideを設計する。これは平易なテキストで入力クエリとして受け付け、基礎となる結果に関する洞察を出力するフレームワークです。
当社のフレームワークがMicrosoftのクラウドサプライチェーン内の実際のサーバ配置シナリオに与える影響を実演する。
論文 参考訳(メタデータ) (2023-07-08T01:42:22Z) - OverPrompt: Enhancing ChatGPT through Efficient In-Context Learning [49.38867353135258]
複数のタスク入力を処理するために,LLMのコンテキスト内学習機能を活用したOverPromptを提案する。
本実験により,OverPromptはタスク性能を著しく損なうことなく,コスト効率の良いゼロショット分類を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-05-24T10:08:04Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [48.87381259980254]
我々は、ChatGPTのような大規模言語モデル(LLM)が、直接の金融トレーニングなしでニュースの見出しから株式市場の反応を予測する能力について文書化している。
GPT-4は、認識後カットオフの見出しを使って、最初の市場の反応を捉え、取引不能な初期反応に対して、ポートフォリオの1日当たりのヒット率を約90%達成している。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。