論文の概要: Talaria: Interactively Optimizing Machine Learning Models for Efficient Inference
- arxiv url: http://arxiv.org/abs/2404.03085v1
- Date: Wed, 3 Apr 2024 21:55:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-05 16:22:48.173949
- Title: Talaria: Interactively Optimizing Machine Learning Models for Efficient Inference
- Title(参考訳): Talaria: 効率的な推論のためのインタラクティブな機械学習モデル最適化
- Authors: Fred Hohman, Chaoqun Wang, Jinmook Lee, Jochen Görtler, Dominik Moritz, Jeffrey P Bigham, Zhile Ren, Cecile Foret, Qi Shan, Xiaoyi Zhang,
- Abstract要約: オンデバイス機械学習(ML)は、計算をクラウドからパーソナルデバイスに移行し、ユーザのプライバシ保護とインテリジェントなユーザエクスペリエンスの実現を可能にする。
モデルビジュアライゼーションと最適化システムであるTalariaを,実践者が効率的なMLモデル作成を支援するために開発しました。
Talariaを使うことで、実践者はモデルをハードウェアにコンパイルし、モデル統計をインタラクティブに視覚化し、最適化をシミュレートして推論メトリクスへの影響をテストすることができる。
- 参考スコア(独自算出の注目度): 32.281162205001976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: On-device machine learning (ML) moves computation from the cloud to personal devices, protecting user privacy and enabling intelligent user experiences. However, fitting models on devices with limited resources presents a major technical challenge: practitioners need to optimize models and balance hardware metrics such as model size, latency, and power. To help practitioners create efficient ML models, we designed and developed Talaria: a model visualization and optimization system. Talaria enables practitioners to compile models to hardware, interactively visualize model statistics, and simulate optimizations to test the impact on inference metrics. Since its internal deployment two years ago, we have evaluated Talaria using three methodologies: (1) a log analysis highlighting its growth of 800+ practitioners submitting 3,600+ models; (2) a usability survey with 26 users assessing the utility of 20 Talaria features; and (3) a qualitative interview with the 7 most active users about their experience using Talaria.
- Abstract(参考訳): オンデバイス機械学習(ML)は、計算をクラウドからパーソナルデバイスに移行し、ユーザのプライバシ保護とインテリジェントなユーザエクスペリエンスの実現を可能にする。
しかし、限られたリソースを持つデバイスにモデルを適合させることは、大きな技術的課題である: 実践者はモデル最適化と、モデルのサイズ、レイテンシ、パワーといったハードウェアメトリクスのバランスをとる必要がある。
モデルビジュアライゼーションと最適化システムであるTalariaを,実践者が効率的なMLモデル作成を支援するために開発しました。
Talariaを使うことで、実践者はモデルをハードウェアにコンパイルし、モデル統計をインタラクティブに視覚化し、最適化をシミュレートして推論メトリクスへの影響をテストすることができる。
2年前のTalariaの内部展開から,(1)800人以上の実践者が3,600以上のモデルを提出したことを強調したログ分析,(2)26人のユーザが20のTalaria機能の有用性を評価したユーザビリティ調査,(3)最もアクティブな7人のユーザに対して,Talariaを使用した経験について質的なインタビューを行った。
関連論文リスト
- A Survey of Small Language Models [104.80308007044634]
小言語モデル (SLM) は, 計算資源の最小化による言語タスクの効率化と性能の向上により, ますます重要になってきている。
本稿では,SLMのアーキテクチャ,トレーニング技術,モデル圧縮技術に着目した総合的な調査を行う。
論文 参考訳(メタデータ) (2024-10-25T23:52:28Z) - POINTS: Improving Your Vision-language Model with Affordable Strategies [28.611705477757454]
視覚言語モデルの最新の進歩を利用して、ロバストなベースラインモデルを訓練する。
我々は、パープレキシティーを用いて事前学習データをフィルタリングし、トレーニングのための最も低いパープレキシティーデータを選択する。
視覚的なインストラクションチューニングでは、さまざまなデータセットでモデルスープを使用して、より多くのデータセットを追加することで、限界的な改善を実現しました。
論文 参考訳(メタデータ) (2024-09-07T13:41:37Z) - 1.5-Pints Technical Report: Pretraining in Days, Not Months -- Your Language Model Thrives on Quality Data [0.0]
本稿では,9日間で言語モデル"1.5-Pints"を事前学習するための計算効率のよい手法を提案する。
MT-Bench(人間の判断をエミュレートするベンチマーク)に基づいて、1.5-PintsはAppleのOpenELMとMicrosoftのPhiを上回っている。
これは、自動化された人間によるレビューと手動によるレビューを組み合わせて、57億トークンのトレーニング済みデータセットを慎重にキュレートすることで達成される。
論文 参考訳(メタデータ) (2024-08-07T02:14:52Z) - Apple Intelligence Foundation Language Models [109.60033785567484]
本報告では、モデルアーキテクチャ、モデルトレーニングに使用されるデータ、トレーニングプロセス、評価結果について述べる。
私たちは、Responsible AIと、モデル開発全体を通して原則がどのように適用されているかに重点を置いています。
論文 参考訳(メタデータ) (2024-07-29T18:38:49Z) - ADAPT^2: Adapting Pre-Trained Sensing Models to End-Users via Self-Supervision Replay [22.59061034805928]
自己教師付き学習は、事前学習モデルに大量のラベルのないデータを活用する方法として登場した。
自己教師型モデルがヘテロジニアス領域で微調整された場合に発生する性能劣化について検討する。
本稿では,自己教師付きモデルをパーソナライズするためのドメイン適応フレームワークADAPT2を提案する。
論文 参考訳(メタデータ) (2024-03-29T08:48:07Z) - When Parameter-efficient Tuning Meets General-purpose Vision-language
Models [65.19127815275307]
PETALは、一意のモード近似技術によって達成される全パラメータの0.5%しか必要とせず、トレーニングプロセスに革命をもたらす。
実験の結果,PETALは現状の手法をほとんどのシナリオで上回るだけでなく,完全な微調整モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-16T17:13:08Z) - Angler: Helping Machine Translation Practitioners Prioritize Model
Improvements [21.873094411355254]
機械学習の実践者は、エラーの性質、スコープ、およびユーザへの影響を推定するために、小さなターゲットテストセットを構築していることがわかった。
私たちはこの洞察を、機械翻訳モデルを用いたケーススタディで構築し、インタラクティブなビジュアル分析ツールであるAnglerを開発した。
7つの機械翻訳の専門家によるユーザスタディでは、入力空間が無限の場合の優先順位付けのプラクティスを理解するために、Anglerを使用しました。
論文 参考訳(メタデータ) (2023-04-12T16:43:39Z) - Statistical Hardware Design With Multi-model Active Learning [1.7596501992526474]
本稿では,効率的なハードウェア設計の課題を解決するために,モデルに基づく能動的学習手法を提案する。
提案手法は,設計空間探索と性能予測を同時に行うのに十分な精度のハードウェアモデルを提供する。
論文 参考訳(メタデータ) (2023-03-14T16:37:38Z) - RoBLEURT Submission for the WMT2021 Metrics Task [72.26898579202076]
本稿では,共有メトリクスタスクであるRoBLEURTについて紹介する。
我々のモデルは10対の英語言語対のうち8対でWMT 2020の人間のアノテーションと最先端の相関に達する。
論文 参考訳(メタデータ) (2022-04-28T08:49:40Z) - A Survey on Large-scale Machine Learning [67.6997613600942]
機械学習はデータに対する深い洞察を与え、マシンが高品質な予測を行うことを可能にする。
ほとんどの高度な機械学習アプローチは、大規模なデータを扱う場合の膨大な時間コストに悩まされる。
大規模機械学習は、ビッグデータからパターンを、同等のパフォーマンスで効率的に学習することを目的としている。
論文 参考訳(メタデータ) (2020-08-10T06:07:52Z) - Three Approaches for Personalization with Applications to Federated
Learning [68.19709953755238]
本稿では,パーソナライゼーションの体系的学習理論について述べる。
学習理論の保証と効率的なアルゴリズムを提供し、その性能を実証する。
全てのアルゴリズムはモデルに依存しず、任意の仮説クラスで機能する。
論文 参考訳(メタデータ) (2020-02-25T01:36:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。