論文の概要: Multi-line AI-assisted Code Authoring
- arxiv url: http://arxiv.org/abs/2402.04141v1
- Date: Tue, 6 Feb 2024 16:48:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 13:51:59.196583
- Title: Multi-line AI-assisted Code Authoring
- Title(参考訳): マルチラインAI支援コードオーサリング
- Authors: Omer Dunay and Daniel Cheng and Adam Tait and Parth Thakkar and Peter
C Rigby and Andy Chiu and Imad Ahmad and Arun Ganesan and Chandra Maddila and
Vijayaraghavan Murali and Ali Tayyebi and Nachiappan Nagappan
- Abstract要約: 単行提案から複数行提案まで、プロダクトのスケール方法を紹介します。
LLMの提案は、開発者の既存のコードの周りを常に動き回っているので、マルチラインの提案がどのように"ジャリング"効果を持つのかについて議論する。
私たちは、マルチライン提案がユーザエクスペリエンスに与える影響を理解するために、10人のエンジニアで実験を行います。
- 参考スコア(独自算出の注目度): 10.162609177132914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: CodeCompose is an AI-assisted code authoring tool powered by large language
models (LLMs) that provides inline suggestions to 10's of thousands of
developers at Meta. In this paper, we present how we scaled the product from
displaying single-line suggestions to multi-line suggestions. This evolution
required us to overcome several unique challenges in improving the usability of
these suggestions for developers.
First, we discuss how multi-line suggestions can have a 'jarring' effect, as
the LLM's suggestions constantly move around the developer's existing code,
which would otherwise result in decreased productivity and satisfaction.
Second, multi-line suggestions take significantly longer to generate; hence
we present several innovative investments we made to reduce the perceived
latency for users. These model-hosting optimizations sped up multi-line
suggestion latency by 2.5x.
Finally, we conduct experiments on 10's of thousands of engineers to
understand how multi-line suggestions impact the user experience and contrast
this with single-line suggestions. Our experiments reveal that (i) multi-line
suggestions account for 42% of total characters accepted (despite only
accounting for 16% for displayed suggestions) (ii) multi-line suggestions
almost doubled the percentage of keystrokes saved for users from 9% to 17%.
Multi-line CodeCompose has been rolled out to all engineers at Meta, and less
than 1% of engineers have opted out of multi-line suggestions.
- Abstract(参考訳): CodeComposeは、大規模言語モデル(LLM)を活用したAI支援のコードオーサリングツールで、Metaの10万人の開発者にインライン提案を提供する。
本稿では,単一行の提案表示から複数行の提案まで,製品のスケールアップ方法について述べる。
この進化によって、開発者のためにこれらの提案のユーザビリティを改善する上で、いくつかのユニークな課題を克服する必要がありました。
まず、LLMの提案が開発者の既存のコードの周りを常に動き回っており、そうでなければ生産性と満足度が低下します。
第2に、マルチラインの提案は、生成にかなり時間がかかるため、ユーザによるレイテンシの認識を減らすために、いくつかの革新的な投資を行いました。
これらのモデルホスト最適化により、複数行提案遅延が2.5倍になった。
最後に,マルチライン提案がユーザエクスペリエンスに与える影響を理解し,これをシングルライン提案と対比するために,10万のエンジニアを対象に実験を行った。
私たちの実験は
(i)受理された文字の42%が複数行の提案である(ただし表示された提案は16%)
(ii)複数行の提案により、9%から17%のユーザが保存したキーストロークの割合がほぼ倍増した。
マルチラインのCodeComposeはMetaの全エンジニアに展開されており、エンジニアの1%未満がマルチラインの提案をオプトアウトしている。
関連論文リスト
- Design2Code: How Far Are We From Automating Front-End Engineering? [83.06100360864502]
これを Design2Code タスクとして形式化し,包括的なベンチマークを行う。
具体的には、テストケースとして、484の多様な現実世界のWebページのベンチマークを手動でキュレートする。
我々は,GPT-4V と Gemini Pro Vision 上で,マルチモーダルプロンプト手法のスイートを開発し,その有効性を示す。
人的評価と自動測定の両方で、GPT-4Vは他のモデルと比較して、このタスクにおいて最善であることを示している。
論文 参考訳(メタデータ) (2024-03-05T17:56:27Z) - Revisiting the Minimalist Approach to Offline Reinforcement Learning [52.0035089982277]
ReBRACはTD3+BC法上に構築された設計要素を統合する最小限のアルゴリズムである。
D4RLとV-D4RLのベンチマークを用いて,51データセット上のReBRACの評価を行った。
論文 参考訳(メタデータ) (2023-05-16T22:37:01Z) - CAViaR: Context Aware Video Recommendations [0.0]
本稿では,低多様性が個々の項目に対するユーザのエンゲージメントに与える影響をモデル化し,多様性を導入する手法を提案する。
提案手法は,既存の大規模レコメンデータシステムに簡単にプラグインできるように設計されている。
論文 参考訳(メタデータ) (2023-04-17T16:56:23Z) - Efficient Online Reinforcement Learning with Offline Data [78.92501185886569]
オンライン学習時にオフラインデータを活用するために、既存のオフライン手法を単純に適用できることを示します。
私たちはこれらの設計選択を広範囲に改善し、パフォーマンスに最も影響を与える重要な要因を示します。
これらのシンプルなレコメンデーションの正しい適用によって、既存のアプローチよりも$mathbf2.5times$の改善が得られます。
論文 参考訳(メタデータ) (2023-02-06T17:30:22Z) - Multi-Objective Personalized Product Retrieval in Taobao Search [27.994166796745496]
関連性, 露出性, クリック性, 購入性の4つの階層的最適化目標を持つ, 新規な多目的パーソナライズされた製品検索モデルを提案する。
MOPPRは28日間のオンラインA/Bテストで0.96%のトランザクションと1.29%のGMV改善を達成した。
2021年のDouble-11ショッピングフェスティバル以来、MOPPRは従来のMGDSPRに代わるモバイルタオバオ検索に完全に配備されている。
論文 参考訳(メタデータ) (2022-10-09T05:18:42Z) - Multi-Task Fusion via Reinforcement Learning for Long-Term User
Satisfaction in Recommender Systems [3.4394890850129007]
バッチ強化学習に基づくマルチタスク融合フレームワーク(BatchRL-MTF)を提案する。
我々は、長期ユーザー満足のために、固定バッチデータから最適なレコメンデーションポリシーをオフラインで学習する。
ユーザの行動に関する包括的調査により,ユーザの定着度とユーザ活動性の2つの側面から,ユーザ満足度報酬を微妙にモデル化する。
論文 参考訳(メタデータ) (2022-08-09T06:35:05Z) - ItemSage: Learning Product Embeddings for Shopping Recommendations at
Pinterest [60.841761065439414]
Pinterestでは、ItemSageと呼ばれるプロダクトの埋め込みセットを構築して、すべてのショッピングユースケースに適切なレコメンデーションを提供しています。
このアプローチによって、エンゲージメントとコンバージョンメトリクスが大幅に改善され、インフラストラクチャとメンテナンスコストの両方が削減された。
論文 参考訳(メタデータ) (2022-05-24T02:28:58Z) - Sliding Spectrum Decomposition for Diversified Recommendation [6.448118871489599]
本稿では、時系列解析手法を用いて、アイテムシーケンスの観点から、このようなシナリオにおける多様性問題について検討する。
我々は,長い項目列を閲覧する際に,ユーザの多様性に対する認識を捉えるスライディングスペクトル分解法(SSD)を考案した。
また、長い尾効果下での正確な類似度測定に適したアイテム埋め込み手法の設計と実装の経験を共有した。
論文 参考訳(メタデータ) (2021-07-12T05:41:54Z) - Do Offline Metrics Predict Online Performance in Recommender Systems? [79.48653445643865]
6つのシミュレーション環境におけるレコメンデータの評価により,オフラインメトリクスがオンラインのパフォーマンスを予測する程度について検討した。
オフラインメトリクスは、様々な環境におけるオンラインのパフォーマンスと相関している。
本研究は,探索戦略の追加による影響について検討し,その有効性はレコメンデーションアルゴリズムに大きく依存していることを示す。
論文 参考訳(メタデータ) (2020-11-07T01:41:13Z) - PinnerSage: Multi-Modal User Embedding Framework for Recommendations at
Pinterest [54.56236567783225]
PinnerSageはエンド・ツー・エンドのレコメンデーションシステムで、マルチモーダル・埋め込みを通じて各ユーザーを表現する。
オフラインおよびオンラインA/B実験を複数実施し,本手法が単一埋め込み法より有意に優れていることを示す。
論文 参考訳(メタデータ) (2020-07-07T17:13:20Z) - RNE: A Scalable Network Embedding for Billion-scale Recommendation [21.6366085346674]
データ効率のよいレコメンデーションベースのネットワーク埋め込み手法であるRNEを提案し、ユーザに対してパーソナライズされた多様なアイテムを提供する。
一方,提案手法は,ユーザの関心の多様性と動的特性をモデル化し,推薦品質を高めるとともに,ユーザとアイテム間の局所的な構造を維持できる。
当社は、中国最大のEコマースプラットフォームであるTaobaoのレコメンデーションシナリオにRNEをデプロイし、それを10億規模のユーザテムグラフでトレーニングしています。
論文 参考訳(メタデータ) (2020-03-10T07:08:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。