論文の概要: Eliciting Best Practices for Collaboration with Computational Notebooks
- arxiv url: http://arxiv.org/abs/2202.07233v1
- Date: Tue, 15 Feb 2022 07:39:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 14:26:03.633674
- Title: Eliciting Best Practices for Collaboration with Computational Notebooks
- Title(参考訳): 計算ノートブックとのコラボレーションのベストプラクティス
- Authors: Luigi Quaranta and Fabio Calefato and Filippo Lanubile
- Abstract要約: 我々は、計算ノートブックと協調的なデータサイエンスのためのベストプラクティスのカタログを提出する。
我々は、これらのベストプラクティスに対する意識を評価するために、専門家データサイエンティストとのインタビューを行う。
専門家がベストプラクティスをよく知っていて、日々の作業で採用する傾向があることが分かる。
- 参考スコア(独自算出の注目度): 10.190501703364234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the widespread adoption of computational notebooks, little is known
about best practices for their usage in collaborative contexts. In this paper,
we fill this gap by eliciting a catalog of best practices for collaborative
data science with computational notebooks. With this aim, we first look for
best practices through a multivocal literature review. Then, we conduct
interviews with professional data scientists to assess their awareness of these
best practices. Finally, we assess the adoption of best practices through the
analysis of 1,380 Jupyter notebooks retrieved from the Kaggle platform.
Findings reveal that experts are mostly aware of the best practices and tend to
adopt them in their daily work. Nonetheless, they do not consistently follow
all the recommendations as, depending on specific contexts, some are deemed
unfeasible or counterproductive due to the lack of proper tool support. As
such, we envision the design of notebook solutions that allow data scientists
not to have to prioritize exploration and rapid prototyping over writing code
of quality.
- Abstract(参考訳): 計算ノートが広く採用されているにもかかわらず、コラボレーティブな文脈で使用するベストプラクティスについてはほとんど知られていない。
本稿では,計算ノートブックを用いた協調データサイエンスのベストプラクティスのカタログを抽出して,このギャップを埋める。
この目的により、我々はまず、多言語文献レビューを通じてベストプラクティスを探求する。
そして、これらのベストプラクティスに対する意識を評価するために、専門家データサイエンティストとのインタビューを行う。
最後に、kaggleプラットフォームから取得した1,380個のjupyterノートブックの分析を通じて、ベストプラクティスの採用を評価する。
専門家がベストプラクティスをよく知っていて、日々の作業で採用する傾向があることが分かる。
それでも、特定の状況によっては、適切なツールサポートが欠如しているために実現不可能あるいは非生産的と見なされるものもあるため、一貫してすべての推奨に従うわけではない。
そこで我々は,データサイエンティストが品質コードの記述よりも探索と迅速なプロトタイピングを優先する必要のないノートブックソリューションの設計を構想する。
関連論文リスト
- Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
大規模テキストコーパスで事前訓練されたLarge Language Models (LLMs) は、推奨システムを強化するための有望な道を示す。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Towards Coarse-to-Fine Evaluation of Inference Efficiency for Large Language Models [95.96734086126469]
大規模言語モデル(LLM)は、ユーザが仕事を達成するのを助けるアシスタントとして機能し、高度なアプリケーションの開発をサポートする。
LLMの幅広い応用にとって、推論効率は重要な問題であり、既存の研究で広く研究されている。
各種コードライブラリの推論性能の粗大な解析を行う。
論文 参考訳(メタデータ) (2024-04-17T15:57:50Z) - A Systematic Mapping Study and Practitioner Insights on the Use of
Software Engineering Practices to Develop MVPs [1.6432083797787214]
2013年から2020年にかけて発行された33の論文を特定し、MVPの構想と評価プラクティスに関連するいくつかの傾向を観察した。
ユーザビリティテスト、A/Bテスト、利用データ分析といったプラクティスに基づいた、エンドユーザのバリデーションに重点が置かれている。
MVPの技術的可能性評価と労力見積に関する研究はまだ限られています。
論文 参考訳(メタデータ) (2023-05-15T02:00:47Z) - Pre-trained Embeddings for Entity Resolution: An Experimental Analysis
[Experiment, Analysis & Benchmark] [65.11858854040544]
我々は、17の確立されたベンチマークデータセットに対して、12のポピュラー言語モデルの徹底的な実験分析を行う。
まず、全ての入力エンティティを高密度な埋め込みベクトルに変換するためのベクトル化のオーバーヘッドを評価する。
次に,そのブロッキング性能を調査し,詳細なスケーラビリティ解析を行い,最先端のディープラーニングベースのブロッキング手法と比較する。
第3に、教師なしマッチングと教師なしマッチングの両方に対して、相対的な性能で締めくくります。
論文 参考訳(メタデータ) (2023-04-24T08:53:54Z) - Tag-Aware Document Representation for Research Paper Recommendation [68.8204255655161]
本稿では,ユーザによって割り当てられたソーシャルタグに基づいて,研究論文の深い意味表現を活用するハイブリッドアプローチを提案する。
提案手法は,評価データが極めて少ない場合でも研究論文の推薦に有効である。
論文 参考訳(メタデータ) (2022-09-08T09:13:07Z) - Efficient Real-world Testing of Causal Decision Making via Bayesian
Experimental Design for Contextual Optimisation [12.37745209793872]
文脈的意思決定の評価と改善のためのデータ収集のためのモデルに依存しないフレームワークを提案する。
過去の治療課題の後悔をデータ効率で評価するために,本手法を用いた。
論文 参考訳(メタデータ) (2022-07-12T01:20:11Z) - Benchopt: Reproducible, efficient and collaborative optimization
benchmarks [67.29240500171532]
Benchoptは、機械学習で最適化ベンチマークを自動化、再生、公開するためのフレームワークである。
Benchoptは実験を実行、共有、拡張するための既製のツールを提供することで、コミュニティのベンチマークを簡単にする。
論文 参考訳(メタデータ) (2022-06-27T16:19:24Z) - A Field Guide to Federated Optimization [161.3779046812383]
フェデレートされた学習と分析は、分散化されたデータからモデル(あるいは統計)を協調的に学習するための分散アプローチである。
本稿では、フェデレート最適化アルゴリズムの定式化、設計、評価、分析に関する勧告とガイドラインを提供する。
論文 参考訳(メタデータ) (2021-07-14T18:09:08Z) - Benchmarking in Optimization: Best Practice and Open Issues [9.710173903804373]
この調査は、異なる背景を持つ12人以上の研究者と、世界中の異なる研究所のアイデアとレコメンデーションをまとめたものだ。
本稿は、ベンチマークにおける8つの重要なトピックについて論じる: 明確な目標、明確に定義された問題、適切なアルゴリズム、適切なパフォーマンス対策、思慮深い分析、効率的かつ効率的な設計、理解可能なプレゼンテーション、保証。
論文 参考訳(メタデータ) (2020-07-07T14:20:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。