論文の概要: An Empirical Study of On-Device Translation for Real-Time Live-Stream Chat on Mobile Devices
- arxiv url: http://arxiv.org/abs/2601.02641v1
- Date: Tue, 06 Jan 2026 01:22:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.76503
- Title: An Empirical Study of On-Device Translation for Real-Time Live-Stream Chat on Mobile Devices
- Title(参考訳): モバイルデバイス上のリアルタイムライブストリームチャットのオンデバイス翻訳に関する実証的研究
- Authors: Jeiyoon Park, Daehwan Lee, Changmin Yeo, Yongshin Han, Minseop Kim,
- Abstract要約: 実際のサービスでデバイス上のモデルをデプロイするために対処しなければならない2つの重要な問題について検討する。
我々は、ライブストリームチャットメッセージを翻訳するタスクに焦点をあて、韓国語と英語の並列文ペア1000からなるベンチマークであるLiveChatBenchを手作業で構築する。
提案手法は,GPT-5.1などの商用モデルに匹敵する性能を実現する。
- 参考スコア(独自算出の注目度): 0.8699280339422538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite its efficiency, there has been little research on the practical aspects required for real-world deployment of on-device AI models, such as the device's CPU utilization and thermal conditions. In this paper, through extensive experiments, we investigate two key issues that must be addressed to deploy on-device models in real-world services: (i) the selection of on-device models and the resource consumption of each model, and (ii) the capability and potential of on-device models for domain adaptation. To this end, we focus on a task of translating live-stream chat messages and manually construct LiveChatBench, a benchmark consisting of 1,000 Korean-English parallel sentence pairs. Experiments on five mobile devices demonstrate that, although serving a large and heterogeneous user base requires careful consideration of highly constrained deployment settings and model selection, the proposed approach nevertheless achieves performance comparable to commercial models such as GPT-5.1 on the well-targeted task. We expect that our findings will provide meaningful insights to the on-device AI community.
- Abstract(参考訳): その効率性にもかかわらず、デバイス内のCPU利用や熱条件など、デバイス上のAIモデルの現実的な展開に必要な実践的な側面についてはほとんど研究されていない。
本稿では,広範にわたる実験を通じて,実際のサービスにデバイス上でモデルをデプロイするために対処すべき2つの重要な課題について考察する。
一 オンデバイスモデルの選択及び各モデルの資源消費及び
(II)ドメイン適応のためのオンデバイスモデルの能力と可能性。
この目的のために、我々は、ライブストリームチャットメッセージを翻訳し、朝鮮語と英語の並行文ペア1000からなるベンチマークであるLiveChatBenchを手作業で構築するタスクに焦点を当てた。
5つのモバイルデバイスでの実験では、大規模で異種なユーザベースを提供するには、高度に制約されたデプロイメント設定とモデル選択を慎重に考慮する必要があるが、しかしながら、提案手法は、よく目標とするタスクにおいて、GPT-5.1のような商用モデルに匹敵するパフォーマンスを達成する。
当社の調査結果は、オンデバイスAIコミュニティに有意義な洞察をもたらすものと期待しています。
関連論文リスト
- MobileLLM-Pro Technical Report [28.511762884727883]
MobileLLM-Proは、デバイス上でのデプロイメントに最適化された1ビリオンパラメータ言語モデルである。
Gemma 3-1BとLlama 3.2-1Bを11の標準ベンチマークで大幅に上回っている。
最大128,000トークンのコンテキストウィンドウをサポートし、4ビット量子化時の小さなパフォーマンスレグレッションのみを表示する。
論文 参考訳(メタデータ) (2025-11-10T05:28:31Z) - PointArena: Probing Multimodal Grounding Through Language-Guided Pointing [79.80132157576978]
ポインティングは、視覚的コンテキスト内で言語を接地するための基本的で直感的なメカニズムとして機能する。
多様な推論シナリオを対象とするマルチモーダル評価のための総合的なプラットフォームであるPointArenaを紹介した。
論文 参考訳(メタデータ) (2025-05-15T06:04:42Z) - AIvaluateXR: An Evaluation Framework for on-Device AI in XR with Benchmarking Results [55.33807002543901]
我々は,XRデバイス上で動作する大規模言語モデル(LLM)をベンチマークするための総合評価フレームワークであるAIvaluateXRを提案する。
我々はMagic Leap 2、Meta Quest 3、Vivo X100s Pro、Apple Vision Proという4つのXRプラットフォームに17個の選択されたLSMをデプロイし、広範囲な評価を行います。
本稿では,3次元最適性理論に基づく統一評価手法を提案する。
論文 参考訳(メタデータ) (2025-02-13T20:55:48Z) - Foundations and Recent Trends in Multimodal Mobile Agents: A Survey [72.29426995154088]
モバイルエージェントは、複雑で動的なモバイル環境におけるタスクの自動化に不可欠である。
近年の進歩により、リアルタイム適応性とマルチモーダルインタラクションが向上している。
これらの進歩は、プロンプトベースの方法とトレーニングベースの方法の2つの主要なアプローチに分類する。
論文 参考訳(メタデータ) (2024-11-04T11:50:58Z) - A Survey of Small Language Models [104.80308007044634]
小言語モデル (SLM) は, 計算資源の最小化による言語タスクの効率化と性能の向上により, ますます重要になってきている。
本稿では,SLMのアーキテクチャ,トレーニング技術,モデル圧縮技術に着目した総合的な調査を行う。
論文 参考訳(メタデータ) (2024-10-25T23:52:28Z) - Precision and Adaptability of YOLOv5 and YOLOv8 in Dynamic Robotic Environments [0.0]
本研究は, YOLOv5モデルとYOLOv8モデルの比較分析を行った。
初期の期待とは対照的に、YOLOv5モデルは同等で、場合によってはオブジェクト検出タスクの精度が優れていた。
論文 参考訳(メタデータ) (2024-06-01T06:17:43Z) - Benchmarking Mobile Device Control Agents across Diverse Configurations [19.01954948183538]
B-MoCAは、モバイルデバイス制御エージェントの評価と開発のためのベンチマークである。
我々は,大規模言語モデル (LLM) やマルチモーダル LLM を用いたエージェントを含む多種多様なエージェントをベンチマークする。
これらのエージェントは、簡単なタスクの実行の熟練度を示す一方で、複雑なタスクにおけるパフォーマンスの低さは、将来の研究が有効性を改善するための重要な機会を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-04-25T14:56:32Z) - U-TOE: Universal TinyML On-board Evaluation Toolkit for Low-Power IoT [3.981958767941474]
U-TOEはIoTデザイナと研究者の作業を容易にするために設計されたユニバーサルツールキットである。
我々は,U-TOEのオープンソース実装を提供し,様々なモデルの性能を実験的に評価するためにその利用を実証する。
論文 参考訳(メタデータ) (2023-06-26T10:35:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。