論文の概要: Assessing Python Style Guides: An Eye-Tracking Study with Novice Developers
- arxiv url: http://arxiv.org/abs/2408.14566v1
- Date: Mon, 26 Aug 2024 18:37:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-28 17:40:47.429836
- Title: Assessing Python Style Guides: An Eye-Tracking Study with Novice Developers
- Title(参考訳): Pythonスタイルガイドを評価する - 初心者開発者によるアイトラッキング調査
- Authors: Pablo Roberto, Rohit Gheyi, José Aldo Silva da Costa, Márcio Ribeiro,
- Abstract要約: 我々は,32名のPython初心者を対象に,視線追跡による時間,試行回数,視覚的努力の制御実験を行った。
結果は、オペレータガイドが適用すべきコードスニペットにおいて、PEP8ラインブレークに従わないことで、アイレグレッション数が70%増加したことを強調した。
ほとんどの被験者は、PEP8ガイドラインに準拠したバージョンを好んだ。
- 参考スコア(独自算出の注目度): 1.4168171214335215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The incorporation and adaptation of style guides play an essential role in software development, influencing code formatting, naming conventions, and structure to enhance readability and simplify maintenance. However, many of these guides often lack empirical studies to validate their recommendations. Previous studies have examined the impact of code styles on developer performance, concluding that some styles have a negative impact on code readability. However, there is a need for more studies that assess other perspectives and the combination of these perspectives on a common basis through experiments. This study aimed to investigate, through eye-tracking, the impact of guidelines in style guides, with a special focus on the PEP8 guide in Python, recognized for its best practices. We conducted a controlled experiment with 32 Python novices, measuring time, the number of attempts, and visual effort through eye-tracking, using fixation duration, fixation count, and regression count for four PEP8 recommendations. Additionally, we conducted interviews to explore the subjects' difficulties and preferences with the programs. The results highlighted that not following the PEP8 Line Break after an Operator guideline increased the eye regression count by 70% in the code snippet where the standard should have been applied. Most subjects preferred the version that adhered to the PEP8 guideline, and some found the left-aligned organization of operators easier to understand. The other evaluated guidelines revealed other interesting nuances, such as the True Comparison, which negatively impacted eye metrics for the PEP8 standard, although subjects preferred the PEP8 suggestion. We recommend practitioners selecting guidelines supported by experimental evaluations.
- Abstract(参考訳): スタイルガイドの導入と適応は、コードのフォーマッティング、命名規則、可読性を高め、メンテナンスを簡素化する構造に影響を及ぼすソフトウェア開発において重要な役割を担っている。
しかしながら、これらのガイドの多くは、その勧告を検証するための実証的研究を欠いていることが多い。
以前の研究では、コードスタイルが開発者パフォーマンスに与える影響を調べ、いくつかのスタイルがコードの可読性に悪影響を及ぼすと結論付けている。
しかし、他の視点を評価し、これらの視点を実験を通じて共通のベースで組み合わせる研究がさらに必要となる。
この研究は、視線追跡を通じて、スタイルガイドにおけるガイドラインの影響を調査することを目的としており、特にPythonのPEP8ガイドがベストプラクティスとして認識されている。
我々は,32名のPython初心者を対象に,視線追跡,固定時間,固定数,回帰数を用いて,PEP8勧告の4項目について,時間,試行数,視覚的労力を計測し,制御実験を行った。
さらに,本プログラムの課題と嗜好を探るため,インタビューを行った。
結果は、オペレータガイドが適用すべきコードスニペットにおいて、PEP8ラインブレークに従わないことで、アイレグレッション数が70%増加したことを強調した。
ほとんどの被験者は、PEP8ガイドラインに準拠したバージョンを好んだ。
他の評価ガイドラインでは、他の興味深いニュアンス、例えばTrue Comparisonは、被験者はPEP8提案を好んだが、PEP8標準の眼球計測に悪影響を及ぼした。
実験的な評価によって支援されたガイドラインを選択することを推奨する。
関連論文リスト
- Adaptive Experimentation When You Can't Experiment [55.86593195947978]
本稿では,Emphcon founded the pure exploration transductive linear bandit (textttCPET-LB) problem。
オンラインサービスは、ユーザーを特定の治療にインセンティブを与える、適切にランダム化された励ましを利用することができる。
論文 参考訳(メタデータ) (2024-06-15T20:54:48Z) - Is Reference Necessary in the Evaluation of NLG Systems? When and Where? [58.52957222172377]
基準自由度は人間の判断と高い相関を示し,言語品質の低下に対する感度が高いことを示す。
本研究は,自動測定の適切な適用方法と,測定値の選択が評価性能に与える影響について考察する。
論文 参考訳(メタデータ) (2024-03-21T10:31:11Z) - Debiasing Multimodal Large Language Models [61.6896704217147]
LVLM(Large Vision-Language Models)は、コンピュータビジョンや自然言語処理において欠かせないツールとなっている。
本研究は,入力画像に先行するLarge Language Models (LLM) の影響を主に受け,生成したコンテンツに有意なバイアスが生じることを示す。
これらのバイアスを是正し、視覚情報に対するモデルの焦点をリダイレクトするために、我々は2つの単純で訓練のない戦略を導入する。
論文 参考訳(メタデータ) (2024-03-08T12:35:07Z) - Adaptive Instrument Design for Indirect Experiments [48.815194906471405]
RCTとは異なり、間接的な実験は条件付き機器変数を利用して治療効果を推定する。
本稿では,データ収集ポリシーを適応的に設計することで,間接実験におけるサンプル効率の向上に向けた最初のステップについて述べる。
我々の主な貢献は、影響関数を利用して最適なデータ収集ポリシーを探索する実用的な計算手順である。
論文 参考訳(メタデータ) (2023-12-05T02:38:04Z) - Past as a Guide: Leveraging Retrospective Learning for Python Code
Completion [9.284740716447336]
この研究は、過去の歴史をインタラクティブで反復的なコード修正と統合することで、コーディング能力を改善するためにPass as a Guide(PaG)を提示する。
人間の認知プロセスにインスパイアされた具体的な方法として、LLMは従来のプログラミングとデバッグの経験を利用してPythonのコード補完タスクを強化することができる。
論文 参考訳(メタデータ) (2023-11-13T14:40:33Z) - Constructive Large Language Models Alignment with Diverse Feedback [76.9578950893839]
本稿では,大規模言語モデルのアライメント向上のための新しい手法として,コンストラクティブ・ディバース・フィードバック(CDF)を導入する。
我々は,簡単な問題に対する批判的フィードバック,中級問題に対する改善的フィードバック,難題に対する選好的フィードバックを利用する。
このような多様なフィードバックでモデルをトレーニングすることで、トレーニングデータの少ない使用でアライメント性能を向上させることができる。
論文 参考訳(メタデータ) (2023-10-10T09:20:14Z) - ActiveGLAE: A Benchmark for Deep Active Learning with Transformers [5.326702806697265]
Deep Active Learning (DAL)は、モデルを最大限に学習したいインスタンスアノテーションを積極的にクエリできるようにすることで、アノテーションのコストを削減しようとしている。
DALの分野では、トランスフォーマーベースの言語モデルに対する標準化された評価プロトコルが存在しない。
DALを評価するための総合的なデータセットと評価ガイドラインであるActiveGLAEベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-16T13:07:29Z) - Understanding and Mitigating Overfitting in Prompt Tuning for
Vision-Language Models [108.13378788663196]
本稿では, トレーニング過程全体において, 低ランク部分空間にバックプロパゲーションの勾配を投影するSubspace Prompt Tuning(SubPT)を提案する。
我々はCoOpにノベル・ラーナー・フィーチャー(NFL)を装備し、学習したプロンプトをトレーニングセット以外の新しいカテゴリに一般化する能力を高める。
論文 参考訳(メタデータ) (2022-11-04T02:06:22Z) - Where Do We Go From Here? Guidelines For Offline Recommender Evaluation [6.447052211404121]
TrainRecはオフライントレーニングとレコメンダシステムの評価のための軽量で柔軟なツールキットである。
TrainRecの有用性は、10つのデータセットにまたがる12のベースラインの多様なセットを評価することで実証する。
論文 参考訳(メタデータ) (2022-11-02T16:41:32Z) - CLEVA-Compass: A Continual Learning EValuation Assessment Compass to
Promote Research Transparency and Comparability [15.342039156426843]
私たちは、Desiderataの正確な定式化の目標は、様々なアプリケーションが常に異なるシナリオを保証できるため、不適切なものであると論じます。
CLEVA-コンパスは、最近のレプリケーショントレンドの精神の中でコンパクトな仕様の促進に加えて、個々のシステムの優先順位を理解するための直感的なチャートを提供する。
論文 参考訳(メタデータ) (2021-10-07T10:53:26Z) - How Useful are Reviews for Recommendation? A Critical Review and
Potential Improvements [8.471274313213092]
本稿では,レビューテキストを用いてレコメンデーションシステムの改善を目指す,新たな作業体系について検討する。
実験条件やデータ前処理に変化はあるものの, 論文間で結果がコピーされていることから, 報告結果にいくつかの相違点がみられた。
さらなる調査では、リコメンデーションのためのユーザレビューの"重要"に関して、はるかに大きな問題に関する議論が求められている。
論文 参考訳(メタデータ) (2020-05-25T16:30:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。