論文の概要: A Large-Scale Study of Floating-Point Usage in Statically Typed Languages
- arxiv url: http://arxiv.org/abs/2509.04936v1
- Date: Fri, 05 Sep 2025 08:58:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.540857
- Title: A Large-Scale Study of Floating-Point Usage in Statically Typed Languages
- Title(参考訳): 静的型付け言語における浮動小数点利用に関する大規模研究
- Authors: Andrea Gilot, Tobias Wrigstad, Eva Darulova,
- Abstract要約: 本稿では,静的型付け言語における浮動小数点演算の大規模研究について述べる。
特定の構成物や関数のサイズや使用状況などの統計データを比較する。
文献において浮動小数点算術の自動推論手法を評価するために用いられるベンチマークは、ある面において「実世界の」コードを表すものであるが、全くない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reasoning about floating-point arithmetic is notoriously hard. While static and dynamic analysis techniques or program repair have made significant progress, more work is still needed to make them relevant to real-world code. On the critical path to that goal is understanding what real-world floating-point code looks like. To close that knowledge gap, this paper presents the first large-scale empirical study of floating-point arithmetic usage in statically typed languages across public GitHub repositories. We follow state-of the art mining practices including random sampling and filtering based on only intrinsic properties to avoid bias, and identify floating-point usage by searching for keywords in the source code, and programming language constructs (e.g., loops) by parsing the code. Our evaluation supports the claim often made in papers that floating-point arithmetic is widely used. Comparing statistics such as size and usage of certain constructs and functions, we find that benchmarks used in literature to evaluate automated reasoning techniques for floating-point arithmetic are in certain aspects representative of 'real-world' code, but not in all. We aim for our study and dataset to help future techniques for floating-point arithmetic to be designed and evaluated to match actual users' expectations.
- Abstract(参考訳): 浮動小数点算術の推論は非常に難しい。
静的および動的解析技術やプログラムの修復は大きな進歩を遂げているが、実際のコードに関連付けるためには、まだまだ多くの作業が必要である。
その目標への重要な道のりは、現実世界の浮動小数点コードがどのように見えるかを理解することです。
この知識ギャップを埋めるため,GitHubリポジトリ全体にわたる静的型付け言語における浮動小数点演算の利用に関する大規模な実証的研究を行った。
バイアスを避けるために固有特性のみに基づくランダムサンプリングやフィルタリング、ソースコード中のキーワードを検索して浮動小数点の使用法、コードを解析してプログラミング言語の構成(ループなど)など、最先端のマイニング手法に従っている。
我々の評価は、浮動小数点算術が広く使われているという論文でしばしばなされる主張を支持する。
特定の構成物や関数のサイズや使用率などの統計データと比較すると,浮動小数点演算の自動推論技術を評価するために文献で使用されるベンチマークは,ある面において「実世界の」コードを表すものであるが,全くないことがわかった。
本研究の目的は,浮動小数点演算の今後の技術が実際のユーザの期待に合うように設計され,評価されることを支援することにある。
関連論文リスト
- Is Compression Really Linear with Code Intelligence? [60.123628177110206]
textitFormat Annealingは、事前訓練されたモデルの本質的な能力を同等に評価するために設計された、軽量で透明なトレーニング手法である。
我々の経験的結果は、測定されたコードインテリジェンスとビット・パー・キャラクタ(BPC)の基本的な対数関係を明らかにする。
私たちの研究は、コードインテリジェンスの開発における圧縮の役割をより微妙に理解し、コードドメインにおける堅牢な評価フレームワークに貢献します。
論文 参考訳(メタデータ) (2025-05-16T16:59:14Z) - Rubric Is All You Need: Enhancing LLM-based Code Evaluation With Question-Specific Rubrics [1.3707925738322797]
本稿では,専門家評価に対する評価厳密度を定量化するLeniencyと呼ばれる新しい指標を提案する。
包括的分析により,学習環境におけるコードの論理的評価が著しく向上することが確認された。
論文 参考訳(メタデータ) (2025-03-31T11:59:43Z) - Exposing Numeracy Gaps: A Benchmark to Evaluate Fundamental Numerical Abilities in Large Language Models [19.47343987998194]
大規模言語モデル(LLM)は、自然言語処理タスクにおける印象的な機能を示している。
基本算術、数値、等級数比較などの数値推論タスクにおけるそれらの性能は、驚くほど貧弱なままである。
既存のベンチマークは主に言語能力や構造化された数学的問題解決に焦点を当てている。
論文 参考訳(メタデータ) (2025-02-16T10:48:28Z) - Arithmetic with Language Models: from Memorization to Computation [3.077668143048211]
本研究は、次のトークンを予測するために訓練された言語モデルが、トレーニングデータを超えて一般化された算術演算を実行する方法を検討する。
我々はこれらのタスクを学ぶために軽言語モデルを訓練し、外挿能力と内部情報処理を調べるために多くの実験を行った。
論文 参考訳(メタデータ) (2023-08-02T13:58:37Z) - A Static Evaluation of Code Completion by Large Language Models [65.18008807383816]
単純なプログラミング問題に対するモデル生成コードの機能的正当性を評価するために,実行ベースベンチマークが提案されている。
プログラムを実行せずにエラーを検出するlinterのような静的解析ツールは、コード生成モデルを評価するために十分に研究されていない。
抽象構文木を利用して,Pythonのコード補完における静的エラーを定量化する静的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-05T19:23:34Z) - Improving Deep Representation Learning via Auxiliary Learnable Target Coding [69.79343510578877]
本稿では,深層表現学習の補助的正規化として,新たな学習対象符号化を提案する。
具体的には、より差別的な表現を促進するために、マージンベースの三重項損失と、提案した目標符号上の相関整合損失を設計する。
論文 参考訳(メタデータ) (2023-05-30T01:38:54Z) - On The Ingredients of an Effective Zero-shot Semantic Parser [95.01623036661468]
我々は、標準発話とプログラムの訓練例を文法から言い換えて、ゼロショット学習を分析する。
改良された文法,より強力なパラフレーズ,効率的な学習手法を用いて,これらのギャップを埋めることを提案する。
我々のモデルはラベル付きデータゼロの2つの意味解析ベンチマーク(Scholar, Geo)で高い性能を達成する。
論文 参考訳(メタデータ) (2021-10-15T21:41:16Z) - Code to Comment "Translation": Data, Metrics, Baselining & Evaluation [49.35567240750619]
本稿では,この課題に対する最近のコード・コンパートメント・データセットについて分析する。
それらをWMT19と比較する。WMT19は、アート自然言語翻訳者の状態のトレーニングに頻繁に使用される標準データセットである。
ソースコードデータとWMT19自然言語データの間には,いくつかの興味深い違いがある。
論文 参考訳(メタデータ) (2020-10-03T18:57:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。