論文の概要: TURBOTEST: Learning When Less is Enough through Early Termination of Internet Speed Tests
- arxiv url: http://arxiv.org/abs/2510.21141v1
- Date: Fri, 24 Oct 2025 04:25:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.381725
- Title: TURBOTEST: Learning When Less is Enough through Early Termination of Internet Speed Tests
- Title(参考訳): TURBOTEST:インターネットの速度テストの早期終了を通じて、少ない時間で学ぶ
- Authors: Haarika Manda, Manshi Sagar, Yogesh, Kartikay Singh, Cindy Zhao, Tarun Mangla, Phillipa Gill, Elizabeth Belding, Arpit Gupta,
- Abstract要約: インターネットのスピードテストは、ユーザー、ISP、政策立案者には不可欠だが、静的な洪水ベースの設計はコストを増大させる。
本稿では,既存のプラットフォーム上に位置する速度テスト終了のための体系的フレームワークであるTURBOTESTを紹介する。
- 参考スコア(独自算出の注目度): 3.1659049937954027
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Internet speed tests are indispensable for users, ISPs, and policymakers, but their static flooding-based design imposes growing costs: a single high-speed test can transfer hundreds of megabytes, and collectively, platforms like Ookla, M-Lab, and Fast.com generate petabytes of traffic each month. Reducing this burden requires deciding when a test can be stopped early without sacrificing accuracy. We frame this as an optimal stopping problem and show that existing heuristics-static thresholds, BBR pipe-full signals, or throughput stability rules from Fast.com and FastBTS-capture only a narrow portion of the achievable accuracy-savings trade-off. This paper introduces TURBOTEST, a systematic framework for speed test termination that sits atop existing platforms. The key idea is to decouple throughput prediction (Stage 1) from test termination (Stage 2): Stage 1 trains a regressor to estimate final throughput from partial measurements, while Stage 2 trains a classifier to decide when sufficient evidence has accumulated to stop. Leveraging richer transport-level features (RTT, retransmissions, congestion window) alongside throughput, TURBOTEST exposes a single tunable parameter for accuracy tolerance and includes a fallback mechanism for high-variability cases. Evaluation on 173,000 M-Lab NDT speed tests (2024-2025) shows that TURBOTEST achieves nearly 2-4x higher data savings than an approach based on BBR signals while reducing median error. These results demonstrate that adaptive ML-based termination can deliver accurate, efficient, and deployable speed tests at scale.
- Abstract(参考訳): インターネットの速度テストはユーザ、ISP、政策立案者には不可欠だが、静的な洪水に基づく設計では、数百メガバイトの転送が可能であり、Ookla、M-Lab、Fast.comといったプラットフォームは毎月1ペタバイトのトラフィックを発生させる。
この負担を軽減するには、正確さを犠牲にすることなく、いつテストが早期に停止できるかを決定する必要がある。
我々はこれを最適停止問題とし、既存のヒューリスティックス定常しきい値、BBRパイプフル信号、Fast.comとFastBTSのスループット安定ルールが達成可能な精度のトレードオフのごく一部しか達成できないことを示す。
本稿では,既存のプラットフォーム上に位置する速度テスト終了のための体系的フレームワークであるTURBOTESTを紹介する。
鍵となるアイデアは、スループット予測(ステージ1)をテスト終了から切り離すことである(ステージ2)。 ステージ1は回帰器を訓練し、部分的な測定から最終スループットを推定し、ステージ2は分類器を訓練し、十分な証拠が蓄積されたかどうかを判断する。
スループットとともにリッチなトランスポートレベル機能(RTT、再送、混雑ウィンドウ)を活用して、TURBOTESTは、精度の許容のために単一の調整可能なパラメータを公開し、高変数ケースのためのフォールバック機構を含んでいる。
173,000 M-Lab NDT速度試験 (2024-2025) の評価により, TURBOTESTは中央値誤差を低減しつつ, BBR信号に基づくアプローチよりも2~4倍高いデータ保存を実現していることが示された。
これらの結果は、適応的なMLベースの終端は、大規模に正確な、効率的で、デプロイ可能なスピードテストを提供できることを示している。
関連論文リスト
- Test-Time Adaptation with Binary Feedback [50.20923012663613]
BiTTAは、不確実なサンプルに対するバイナリフィードバック誘導適応と、確実な予測に対する合意に基づく自己適応のバランスをとる、新しいデュアルパス最適化フレームワークである。
実験の結果、BiTTAは最先端のベースラインよりも13.3%の精度向上を実現している。
論文 参考訳(メタデータ) (2025-05-24T05:24:10Z) - Fast T2T: Optimization Consistency Speeds Up Diffusion-Based Training-to-Testing Solving for Combinatorial Optimization [83.65278205301576]
雑音レベルから与えられたインスタンスの最適解への直接写像を学習し、最小限のショットで高品質な生成を容易にすることを提案する。
これは、サンプル間の差を最小限に抑える最適化一貫性トレーニングプロトコルによって達成される。
The Traveling Salesman Problem (TSP) と Maximal Independent Set (MIS) は、ソリューションの品質と効率の両方に関して、Fast T2Tの優位性を実証している。
論文 参考訳(メタデータ) (2025-02-05T07:13:43Z) - CEEBERT: Cross-Domain Inference in Early Exit BERT [5.402030962296633]
CeeBERTは、中間層で観測されたドメイン固有の信頼度から最適な閾値を学習する。
CeeBERTは、BERT/ALBERTモデルを最小限の精度で、$2times$ -3.5times$でスピードアップすることができる。
論文 参考訳(メタデータ) (2024-05-23T20:36:10Z) - Decoder Tuning: Efficient Language Understanding as Decoding [84.68266271483022]
本稿では,タスク固有のデコーダネットワークを出力側で最適化するデコーダチューニング(DecT)を提案する。
勾配ベースの最適化により、DecTは数秒以内にトレーニングでき、サンプル毎に1つのPクエリしか必要としない。
我々は、広範囲にわたる自然言語理解実験を行い、DecTが200ドル以上のスピードアップで最先端のアルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-12-16T11:15:39Z) - Minimum Latency Training of Sequence Transducers for Streaming
End-to-End Speech Recognition [38.28868751443619]
本稿では,シーケンストランスデューサモデルの遅延を明示的にモデル化し,遅延を低減するための新しいトレーニング手法を提案する。
実験結果から,提案した最小レイテンシトレーニングにより,WER劣化率0.7%において,因果コンバータ-Tのレイテンシを220msから27msに短縮できることがわかった。
論文 参考訳(メタデータ) (2022-11-04T09:19:59Z) - HybMT: Hybrid Meta-Predictor based ML Algorithm for Fast Test Vector
Generation [2.1028463367241033]
HybMT は EPFL ベンチマーク回路の故障カバレッジを損なうことなく、CPU 時間で 56.6% の低下を示した。
HybMTはまた、最高のMLベースのアルゴリズムよりも126.4%高速化されている。
論文 参考訳(メタデータ) (2022-07-22T19:38:25Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - Adaptive Test-Time Augmentation for Low-Power CPU [3.5473686344971416]
Test-Time Augmentation (TTA)テクニックは、推論時にそのような一般的な副作用を軽減することを目的とする。
本稿では,フィードフォワード回数を動的に制御するTTAの適応的実装であるAdapTTAを提案する。
商用ARM Cortex-A CPUにデプロイされた画像分類のための最新のConvNetsに関する実験結果では、AdapTTAが驚くべき遅延節約を達成している。
論文 参考訳(メタデータ) (2021-05-13T10:50:13Z) - FastEmit: Low-latency Streaming ASR with Sequence-level Emission
Regularization [78.46088089185156]
ストリーム自動音声認識(ASR)は、仮説化された単語を可能な限り迅速かつ正確に出力することを目的としている。
既存のアプローチでは、シーケンストランスデューサモデルにおいて、トーケン単位またはフレーム単位の確率予測を演算することで、発光遅延をペナルティ化する。
本稿では,訓練用トランスデューサモデルにおいて,シーケンス毎の確率に遅延正規化を直接適用する,FastEmitというシーケンスレベルのエミッション正規化手法を提案する。
論文 参考訳(メタデータ) (2020-10-21T17:05:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。