論文の概要: Match Chat: Real Time Generative AI and Generative Computing for Tennis
- arxiv url: http://arxiv.org/abs/2509.12592v1
- Date: Tue, 16 Sep 2025 02:38:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.845828
- Title: Match Chat: Real Time Generative AI and Generative Computing for Tennis
- Title(参考訳): Match Chat: テニスのためのリアルタイム生成AIと生成コンピューティング
- Authors: Aaron Baughman, Gozde Akay, Eduardo Morales, Rahul Agarwal, Preetika Srivastava,
- Abstract要約: テニスファン体験を向上させるために設計されたリアルタイムエージェント駆動アシスタントであるMatch Chatを紹介する。
Match Chatは、Generative Artificial Intelligence(GenAI)とGenerative Computing(GenComp)技術を統合し、ライブテニスシングルマッチにおける重要な洞察を合成する。
2025年のウィンブルドン選手権と2025年のUSオープンでデビューし、100万人のユーザーがストリーミングや静的データにシームレスにアクセスできるようになった。
- 参考スコア(独自算出の注目度): 1.440818306216858
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present Match Chat, a real-time, agent-driven assistant designed to enhance the tennis fan experience by delivering instant, accurate responses to match-related queries. Match Chat integrates Generative Artificial Intelligence (GenAI) with Generative Computing (GenComp) techniques to synthesize key insights during live tennis singles matches. The system debuted at the 2025 Wimbledon Championships and the 2025 US Open, where it provided about 1 million users with seamless access to streaming and static data through natural language queries. The architecture is grounded in an Agent-Oriented Architecture (AOA) combining rule engines, predictive models, and agents to pre-process and optimize user queries before passing them to GenAI components. The Match Chat system had an answer accuracy of 92.83% with an average response time of 6.25 seconds under loads of up to 120 requests per second (RPS). Over 96.08% of all queries were guided using interactive prompt design, contributing to a user experience that prioritized clarity, responsiveness, and minimal effort. The system was designed to mask architectural complexity, offering a frictionless and intuitive interface that required no onboarding or technical familiarity. Across both Grand Slam deployments, Match Chat maintained 100% uptime and supported nearly 1 million unique users, underscoring the scalability and reliability of the platform. This work introduces key design patterns for real-time, consumer-facing AI systems that emphasize speed, precision, and usability that highlights a practical path for deploying performant agentic systems in dynamic environments.
- Abstract(参考訳): 我々は,マッチ関連クエリに対する即時かつ正確な応答を提供することで,テニスファンエクスペリエンスを向上させるために設計されたリアルタイムエージェント駆動アシスタントであるMatch Chatを紹介する。
Match Chatは、Generative Artificial Intelligence(GenAI)とGenerative Computing(GenComp)技術を統合し、ライブテニスシングルマッチにおける重要な洞察を合成する。
このシステムは2025年のウィンブルドン選手権と2025年のUSオープンでデビューし、100万人のユーザーが自然言語クエリを使ってストリーミングや静的データにシームレスにアクセスできるようになった。
アーキテクチャは、ルールエンジン、予測モデル、エージェントを組み合わせたエージェント指向アーキテクチャ(AOA)に基づいており、GenAIコンポーネントに渡す前に、ユーザクエリの事前処理と最適化を行う。
Match Chatシステムの解答精度は92.83%で、平均応答時間は6.25秒で、最大120リクエスト/秒(RPS)であった。
すべてのクエリの96.08%以上がインタラクティブなプロンプト設計を使用してガイドされ、明確さ、応答性、最小限の労力を優先するユーザエクスペリエンスに寄与した。
このシステムはアーキテクチャの複雑さを隠蔽するように設計されており、摩擦のない直感的なインターフェースを備えており、搭載や技術に精通する必要はない。
両方のGrand Slamデプロイメント全体で、Match Chatは100%アップタイムを維持し、100万近いユニークなユーザをサポートし、プラットフォームのスケーラビリティと信頼性を強調した。
この研究は、動的環境にパフォーマンスエージェントシステムをデプロイするための実践的なパスを強調するスピード、精度、ユーザビリティを強調する、リアルタイムで消費者向けのAIシステムのための重要なデザインパターンを導入している。
関連論文リスト
- HumAIne-Chatbot: Real-Time Personalized Conversational AI via Reinforcement Learning [0.4931504898146351]
textbfHumAIne-chatbotはAIによる会話エージェントで、新しいユーザプロファイリングフレームワークを通じて応答をパーソナライズする。
ライブインタラクションの間、オンライン強化学習エージェントは暗黙の信号を組み合わせることで、ユーザ毎のモデルを洗練する。
その結果、パーソナライズ機能を有効にすると、ユーザ満足度、パーソナライズ精度、タスク達成度が一貫した改善が見られた。
論文 参考訳(メタデータ) (2025-09-04T15:16:38Z) - WebGames: Challenging General-Purpose Web-Browsing AI Agents [11.320069795732058]
WebGamesは汎用的なWebブラウザAIエージェントを評価するために設計された包括的なベンチマークスイートである。
GPT-4o, Claude Computer-Use, Gemini-1.5-Pro, Qwen2-VLなどの視覚言語モデルを人為的性能に対して評価した。
その結果、最高のAIシステムは、人間のパフォーマンスが95.7%であるのに対して、43.1%の成功率しか達成していない。
論文 参考訳(メタデータ) (2025-02-25T16:45:08Z) - Mind the Gap! Static and Interactive Evaluations of Large Audio Models [55.87220295533817]
大型オーディオモデル(LAM)は、音声ネイティブな体験をパワーアップするために設計されている。
本研究は,484名の参加者から,LAMを評価し,7,500名のLAMインタラクションを収集する対話的アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-21T20:29:02Z) - Visual Agents as Fast and Slow Thinkers [88.1404921693082]
本稿では、Fast and Slow Thinking機構を視覚エージェントに組み込んだFaSTを紹介する。
FaSTは、システム1/2モード間の動的選択にスイッチアダプタを使用する。
モデルの信頼性を調整し、新しいコンテキストデータを統合することで、不確実で目に見えないオブジェクトに取り組む。
論文 参考訳(メタデータ) (2024-08-16T17:44:02Z) - CHATATC: Large Language Model-Driven Conversational Agents for Supporting Strategic Air Traffic Flow Management [1.0567943620068299]
非安全で重要な戦略的トラフィックフロー管理設定において、生成AIツールをどのようにデプロイできるかを検討する。
具体的には,2000~2023年の間,地上遅延プログラム(GDP)の大規模な歴史的データセットに基づいたLLM,CHATATCをトレーニングし,8万以上のGDP実装,改訂,キャンセルで構成されている。
私たちはCHATATCのクエリとレスポンス機能、成功の文書化(GDP率、期間、理由の提供など)、欠点(最上級の質問など)をテストする。
論文 参考訳(メタデータ) (2024-02-20T01:59:11Z) - Learning Connectivity-Maximizing Network Configurations [123.01665966032014]
本稿では、専門家からコミュニケーションエージェントを配置することを学ぶ畳み込みニューラルネットワーク(CNN)を用いた教師あり学習手法を提案する。
我々は,標準ライントポロジやリングトポロジ,ランダムに生成された105万件のテストケース,トレーニング中に見えない大規模なチームについて,CNNのパフォーマンスを実証した。
トレーニング後,本システムは10~20名のエージェントの最適化手法よりも2桁高速な接続構成を生成する。
論文 参考訳(メタデータ) (2021-12-14T18:59:01Z) - Throughput-Optimal Topology Design for Cross-Silo Federated Learning [13.922754427601493]
フェデレーション学習は通常、クライアントサーバアーキテクチャを使用し、オーケストレータがリモートクライアントからのモデル更新を反復的に集約し、洗練されたモデルに戻す。
高速アクセスリンクを持つクローズバイデータサイロは、オーケストレータよりも高速に情報を交換できるため、このアプローチはクロスサイロ設定では非効率である可能性がある。
本稿では,最大スループットあるいは保証可能なスループット保証を備えたトポロジを求める実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-23T08:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。