論文の概要: Real Money, Fake Models: Deceptive Model Claims in Shadow APIs
- arxiv url: http://arxiv.org/abs/2603.01919v1
- Date: Mon, 02 Mar 2026 14:33:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.911654
- Title: Real Money, Fake Models: Deceptive Model Claims in Shadow APIs
- Title(参考訳): フェイクモデルとリアルマネー - シャドウAPIにおける知覚的モデルクレーム
- Authors: Yage Zhang, Yukun Jiang, Zeyuan Chen, Michael Backes, Xinyue Shen, Yang Zhang,
- Abstract要約: サードパーティサービスは、間接アクセスによる地域制限なしに、公式のモデルサービスへのアクセスを提供すると主張している。
広く使われているにもかかわらず、シャドウAPIが公式APIと一貫性のあるアウトプットを提供するかどうかは不明だ。
これらのプラクティスは、科学的研究の妥当性を損なうとともに、シャドウAPI利用者の利益を損なうとともに、公式なモデル提供者の評判を損なう。
- 参考スコア(独自算出の注目度): 26.860718016839126
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Access to frontier large language models (LLMs), such as GPT-5 and Gemini-2.5, is often hindered by high pricing, payment barriers, and regional restrictions. These limitations drive the proliferation of $\textit{shadow APIs}$, third-party services that claim to provide access to official model services without regional limitations via indirect access. Despite their widespread use, it remains unclear whether shadow APIs deliver outputs consistent with those of the official APIs, raising concerns about the reliability of downstream applications and the validity of research findings that depend on them. In this paper, we present the first systematic audit between official LLM APIs and corresponding shadow APIs. We first identify 17 shadow APIs that have been utilized in 187 academic papers, with the most popular one reaching 5,966 citations and 58,639 GitHub stars by December 6, 2025. Through multidimensional auditing of three representative shadow APIs across utility, safety, and model verification, we uncover both indirect and direct evidence of deception practices in shadow APIs. Specifically, we reveal performance divergence reaching up to $47.21\%$, significant unpredictability in safety behaviors, and identity verification failures in $45.83\%$ of fingerprint tests. These deceptive practices critically undermine the reproducibility and validity of scientific research, harm the interests of shadow API users, and damage the reputation of official model providers.
- Abstract(参考訳): GPT-5やGemini-2.5のようなフロンティアの大規模言語モデル(LLM)へのアクセスは、高価格、支払い障壁、地域制限によって妨げられることが多い。
これらの制限は、間接アクセスによる地域的制限なしに公式なモデルサービスへのアクセスを提供すると主張するサードパーティサービスである$\textit{shadow API}の増殖を促す。
広く使われているにもかかわらず、シャドウAPIが公式APIのものと一致したアウトプットを提供するかどうかは不明であり、ダウンストリームアプリケーションの信頼性と、それに依存する研究結果の妥当性に関する懸念を提起している。
本稿では,オフィシャルLLM APIと対応するシャドウAPIのシステム監査について紹介する。
最初に17のシャドウAPIを特定し、2025年12月6日までに5,966個の引用と58,639個のGitHub星に達した。
実用性,安全性,モデル検証の3つの代表的なシャドウAPIの多次元監査を通じて,シャドウAPIにおける詐欺行為の間接的および直接的証拠を明らかにする。
具体的には、パフォーマンスのばらつきが最大で47.21セント、安全行動の重大な予測不能、指紋検査の45.83セントでアイデンティティの検証が失敗することを明らかにする。
これらの偽造行為は、科学的研究の再現性と妥当性を著しく損なうとともに、シャドウAPI利用者の利益を損なうとともに、公式なモデル提供者の評判を損なう。
関連論文リスト
- IMMACULATE: A Practical LLM Auditing Framework via Verifiable Computation [49.796717294455796]
経済的なモチベーションのある逸脱を検出するための実践的な監査フレームワークIMMACULATEを提案する。
IMMACULATEは、検証可能な計算を用いて少数のリクエストを選択的に監査し、暗号オーバーヘッドを償却しながら強力な検出保証を達成する。
論文 参考訳(メタデータ) (2026-02-26T07:21:02Z) - TikTok's Research API: Problems Without Explanations [2.06242362470764]
TikTokは2023年7月にヨーロッパでResearch APIへのアクセスを拡大した。
この拡張にもかかわらず、提供されたデータには顕著な制限と不整合が持続する。
APIデータは不完全であり、データドキュメンテーションを扱う際には信頼できない。
論文 参考訳(メタデータ) (2025-06-11T13:50:06Z) - CoIn: Counting the Invisible Reasoning Tokens in Commercial Opaque LLM APIs [13.31195673556853]
隠れトークンの量と意味的妥当性の両方を検査する検証フレームワークであるCoInを提案する。
実験では、信頼できる第三者監査官としてデプロイされたCoInが、成功率94.7%に達するトークン数インフレーションを効果的に検出できることが示されている。
論文 参考訳(メタデータ) (2025-05-19T23:39:23Z) - Are You Getting What You Pay For? Auditing Model Substitution in LLM APIs [71.7892165868749]
LLM(Commercial Large Language Model) APIは基本的な信頼の問題を生み出します。
ユーザーは特定のモデルに課金するが、プロバイダが忠実に提供できることを保証することはない。
我々は,このモデル置換問題を定式化し,現実的な逆条件下での検出方法を評価する。
我々は,信頼された実行環境(TEE)を実用的で堅牢なソリューションとして使用し,評価する。
論文 参考訳(メタデータ) (2025-04-07T03:57:41Z) - Your Fix Is My Exploit: Enabling Comprehensive DL Library API Fuzzing with Large Language Models [49.214291813478695]
AIアプリケーションで広く使用されているディープラーニング(DL)ライブラリは、オーバーフローやバッファフリーエラーなどの脆弱性を含むことが多い。
従来のファジィングはDLライブラリの複雑さとAPIの多様性に悩まされている。
DLライブラリのためのLLM駆動ファジィ手法であるDFUZZを提案する。
論文 参考訳(メタデータ) (2025-01-08T07:07:22Z) - SEAL: Suite for Evaluating API-use of LLMs [1.2528321519119252]
SEALは、現実世界のAPI使用時に大きな言語モデルを評価するように設計されたエンドツーエンドのテストベッドである。
既存のベンチマークを標準化し、API検索と計画をテストするエージェントシステムを統合し、リアルタイムAPIの不安定性に対処する。
論文 参考訳(メタデータ) (2024-09-23T20:16:49Z) - FANTAstic SEquences and Where to Find Them: Faithful and Efficient API Call Generation through State-tracked Constrained Decoding and Reranking [57.53742155914176]
APIコール生成は、大規模言語モデルのツール使用能力の基盤となっている。
既存の教師付きおよびコンテキスト内学習アプローチは、高いトレーニングコスト、低いデータ効率、APIドキュメントとユーザの要求に反する生成APIコールに悩まされる。
本稿では,これらの制約に対処するため,FANTASEと呼ばれる出力側最適化手法を提案する。
論文 参考訳(メタデータ) (2024-07-18T23:44:02Z) - A Classification-by-Retrieval Framework for Few-Shot Anomaly Detection to Detect API Injection Attacks [9.693391036125908]
本稿では,2つの主要部品からなる非教師なし数発の異常検出フレームワークを提案する。
まず、FastTextの埋め込みに基づいたAPI専用の汎用言語モデルをトレーニングする。
次に,近似Nearest Neighborサーチを分類・検索手法として用いた。
論文 参考訳(メタデータ) (2024-05-18T10:15:31Z) - Evaluating Embedding APIs for Information Retrieval [51.24236853841468]
ドメインの一般化と多言語検索における既存のセマンティック埋め込みAPIの機能を評価する。
BM25の結果をAPIを使って再ランク付けすることは、予算に優しいアプローチであり、英語でもっとも効果的である。
非英語検索では、再ランク付けは結果を改善するが、BM25のハイブリッドモデルは高いコストで機能する。
論文 参考訳(メタデータ) (2023-05-10T16:40:52Z) - Simple Transparent Adversarial Examples [65.65977217108659]
本研究は,ロバスト性を評価するための簡易な方法として,秘密の埋め込みと透明な敵の例を紹介した。
その結果、ハイリスクなアプリケーションにAPIが使用されるという深刻な脅威が生じる。
論文 参考訳(メタデータ) (2021-05-20T11:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。