論文の概要: DELA: A Novel Approach for Detecting Errors Induced by Large Atomic Condition Numbers
- arxiv url: http://arxiv.org/abs/2412.20804v1
- Date: Mon, 30 Dec 2024 08:56:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:02:40.433463
- Title: DELA: A Novel Approach for Detecting Errors Induced by Large Atomic Condition Numbers
- Title(参考訳): DELA:大規模原子状態数によるエラー検出のための新しいアプローチ
- Authors: Youshuai Tan, Zhanwei Zhang, Jinfu Chen, Zishuo Ding, Jifeng Xuan, Weiyi Shang,
- Abstract要約: ほとんどの数値誤差は、原子操作における大きな条件数から来ており、それが伝播して蓄積される。
我々のアプローチは、ほとんどの数値誤差は原子操作における大きな条件数に由来するという観察に基づいている。
DELAはプログラム内の個々の原子操作の結果に小さな摂動を注入し、元のプログラムの結果と摂動バージョンを比較してエラーを検出する。
- 参考スコア(独自算出の注目度): 10.580959733598519
- License:
- Abstract: Numerical programs form the foundation of modern science and engineering, providing essential solutions to complex mathematical problems. Therefore, errors in numerical results would lead to harmful consequences, especially in safety-critical applications. Since only a few inputs may lead to substantial errors for numerical programs, it is essential to determine whether a given input could result in a significant error. Existing researchers tend to use the results of high-precision programs to assess whether there is a substantial error, which introduces three main challenges: difficulty of implementation, existence of potential faults in the detection of numerical errors, and long execution time. To address these limitations, we propose a novel approach named DELA. Our approach is based on the observation that most numerical errors stem from large condition numbers in atomic operations (such as subtraction), which then propagate and accumulate. DELA injects small perturbations into the results of individual atomic operations within the program and compares the outcomes of the original program with the perturbed version to detect errors. We evaluate DELA with datasets from ATOMU and HSED, as well as data from a complex linear system-solving program. Experimental results demonstrate that we can detect all the significant errors that were reported by prior research. DELA shows strong alignment with high-precision programs of ATOMU and HSED, with average Pearson and Spearman correlations of 0.86 and 0.61. Additionally, DELA effectively detects significant errors in complex programs, achieving correlation scores of 0.9763 and 0.8993. More importantly, in experiments with ATOMU and HSED, DELA's perturbed programs run within only 0.13% of the time needed by high-precision versions; while for the linear system-solving programs, DELA is 73.46 times faster than the high-precision programs.
- Abstract(参考訳): 数値プログラムは現代科学と工学の基礎を形成し、複雑な数学的問題に対する重要な解決策を提供する。
したがって、数値結果の誤差は、特に安全クリティカルな応用において有害な結果をもたらす。
数個の入力だけが数値プログラムの重大なエラーにつながる可能性があるため、与えられた入力が重大なエラーをもたらすかどうかを判断することが不可欠である。
既存の研究者は、重大なエラーがあるかどうかを評価するために高精度プログラムの結果を使う傾向があり、これは実装の難しさ、数値エラーの検出における潜在的な欠陥の存在、そして実行時間という3つの大きな課題をもたらす。
これらの制約に対処するため,我々はDELAという新しいアプローチを提案する。
我々のアプローチは、ほとんどの数値誤差は原子の操作(減算など)における大きな条件数から来ており、それが伝播して蓄積されるという観察に基づいている。
DELAはプログラム内の個々の原子操作の結果に小さな摂動を注入し、元のプログラムの結果と摂動バージョンを比較してエラーを検出する。
我々は、ATOMUとHSEDのデータセットと複雑な線形システム解決プログラムのデータを用いて、DELAを評価する。
実験結果から,過去の研究で報告された重大な誤りをすべて検出できることが示唆された。
DELA は ATOMU と HSED の高精度プログラムと強い整合性を示し、Pearson と Spearman の平均相関は 0.86 と 0.61 である。
さらに、DELAは複雑なプログラムの重大なエラーを効果的に検出し、相関スコアは 0.9763 と 0.8993 となる。
さらに重要なことは、ATOMUとHSEDの実験では、DLAの摂動プログラムは精度の高いバージョンで必要とされる時間のうち0.13%しか動作しないが、線形システム解決プログラムでは、DLAは高精度プログラムの73.46倍高速である。
関連論文リスト
- Subtle Errors Matter: Preference Learning via Error-injected Self-editing [59.405145971637204]
eRror-Injected Self-Editing (RISE) と呼ばれる新しい好み学習フレームワークを提案する。
RISEは定義済みの微妙な誤りを正しい解の部分的なトークンに注入し、エラー軽減のためにハードペアを構築する。
RISEの有効性を検証する実験では、Qwen2-7B-Instructでは、GSM8Kでは3.0%、MATHでは7.9%が顕著に改善された。
論文 参考訳(メタデータ) (2024-10-09T07:43:38Z) - ErrorRadar: Benchmarking Complex Mathematical Reasoning of Multimodal Large Language Models Via Error Detection [60.297079601066784]
エラー検出におけるMLLMの能力を評価するために設計された最初のベンチマークであるErrorRadarを紹介する。
ErrorRadarはエラーステップ識別とエラー分類という2つのサブタスクを評価している。
2500の高品質なマルチモーダルK-12数学問題で構成され、実世界の学生相互作用から収集される。
GPT-4oの優れた性能は、まだ人間の評価に約10%遅れているため、大きな課題が残っている。
論文 参考訳(メタデータ) (2024-10-06T14:59:09Z) - Data-driven Error Estimation: Upper Bounding Multiple Errors with No Technical Debt [26.81883988098551]
本稿では,推定誤差のクラス/セットの最大誤差に対する高い確率上限を推定するために,有効信頼区間(CI)を同時に構築する問題を定式化する。
本稿では,最大誤差の上限を推定する完全データ駆動手法を提案する。
論文 参考訳(メタデータ) (2024-05-07T19:38:26Z) - Uncertainty quantification for deep learning-based schemes for solving
high-dimensional backward stochastic differential equations [5.883258964010963]
深層学習に基づくBSDEスキームのクラスに対する不確実性定量化(UQ)について検討する。
アルゴリズムの単一実行のみを用いて近似解のSTDを効率的に推定するUQモデルを開発した。
数値実験により,UQモデルは近似解の平均とSTDの信頼性の高い推定値を生成することが示された。
論文 参考訳(メタデータ) (2023-10-05T09:00:48Z) - Assessing Student Errors in Experimentation Using Artificial
Intelligence and Large Language Models: A Comparative Study with Human Raters [9.899633398596672]
学生の誤りを自動的に識別するLarge Language Models (LLMs) の可能性を検討する。
GPT-3.5とGPT-4をベースとしたAIシステムを開発・試験した。
以上の結果から,AIシステムとレーダ間の誤差検出における精度の差が示唆された。
論文 参考訳(メタデータ) (2023-08-11T12:03:12Z) - NAPG: Non-Autoregressive Program Generation for Hybrid Tabular-Textual
Question Answering [52.10214317661547]
現在の数値推論法はプログラムシーケンスを自己回帰的にデコードする。
プログラム生成の精度は、デコードステップがエラー伝搬によって展開されるにつれて急激に低下する。
本稿では,非自己回帰型プログラム生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-07T11:25:21Z) - Fast and Accurate Error Simulation for CNNs against Soft Errors [64.54260986994163]
本稿では,誤りシミュレーションエンジンを用いて,コナールニューラルネットワーク(CNN)の信頼性解析のためのフレームワークを提案する。
これらの誤差モデルは、故障によって誘導されるCNN演算子の出力の破損パターンに基づいて定義される。
提案手法は,SASSIFIの欠陥効果の約99%の精度と,限定的なエラーモデルのみを実装した44倍から63倍までのスピードアップを実現する。
論文 参考訳(メタデータ) (2022-06-04T19:45:02Z) - Learning from Self-Sampled Correct and Partially-Correct Programs [96.66452896657991]
そこで本研究では,モデルが学習中にサンプリングを行い,自己サンプリングされた完全正当プログラムと部分正当プログラムの両方から学習することを提案する。
自己サンプリング型プログラムと部分修正型プログラムを併用することで,学習とサンプリングプロセスのガイドに役立てることができることを示す。
提案手法は,MLEを用いた単一の参照プログラムからの学習と比較して,パス@kの性能を3.1%から12.3%向上させる。
論文 参考訳(メタデータ) (2022-05-28T03:31:07Z) - MIRACLE: Causally-Aware Imputation via Learning Missing Data Mechanisms [82.90843777097606]
欠落データに対する因果認識型計算アルゴリズム(MIRACLE)を提案する。
MIRACLEは、欠落発生機構を同時にモデル化することにより、ベースラインの計算を反復的に洗練する。
我々は、MIRACLEが一貫してイミューテーションを改善することができることを示すために、合成および様々な公開データセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2021-11-04T22:38:18Z) - Designing Accurate Emulators for Scientific Processes using
Calibration-Driven Deep Models [33.935755695805724]
Learn-by-Calibrating (LbC)は、科学応用においてエミュレータを設計するための新しいディープラーニングアプローチである。
また,LbCは広く適応された損失関数の選択に対して,一般化誤差を大幅に改善することを示した。
LbCは、小さなデータレギュレータでも高品質なエミュレータを実現し、さらに重要なことは、明確な事前条件なしで固有のノイズ構造を復元する。
論文 参考訳(メタデータ) (2020-05-05T16:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。