論文の概要: A Deep Learning Model for Predicting Transformation Legality
- arxiv url: http://arxiv.org/abs/2511.06120v1
- Date: Sat, 08 Nov 2025 20:08:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.767035
- Title: A Deep Learning Model for Predicting Transformation Legality
- Title(参考訳): 変換の正当性予測のための深層学習モデル
- Authors: Avani Tiwari, Yacine Hakimi, Riyadh Baghdadi,
- Abstract要約: 本稿では,変換の合法性を予測するための新しいDLモデルを提案する。
モデルはコード表現と変換のリストを入力として取り、それらの変換をコードに適用することが合法かどうかを予測する。
このような置換によってエージェントが2倍のステップでトレーニングすることが可能になり、より高速なトレーニングとリソース使用量の削減が実現されたことを実証する。
- 参考スコア(独自算出の注目度): 0.9558392439655014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compilers must check the legality of code transformations to guarantee the correctness of applying a sequence of code transformations to a given code. While such a legality check needs to be precisely computed in general, we can use an approximate legality prediction model in certain cases, such as training a reinforcement learning (RL) agent for schedule prediction. In this paper, we propose an approximate method for legality checks. We propose a novel DL model for predicting the legality of transformations. The model takes the code representation and a list of transformations as input and predicts whether applying those transformations to the code is legal. We implement and evaluate the proposed model, demonstrating its effectiveness. Our evaluation shows an F1 score of 0.91 on a test set of randomly generated programs. To further evaluate the model in a practical scenario, we used the model to replace the legality check used during the training of an RL agent designed for automatic code optimization. We demonstrate that such a replacement enables the agent to train on twice as many steps, resulting in faster training and reducing resource usage by approximately 80\% for CPU and 35\% for RAM. The agent trained using this approach maintains comparable performance, with only a 4\% reduction on benchmarks from the Polybench suite compared to the traditional method.
- Abstract(参考訳): コンパイラは、与えられたコードに一連のコード変換を適用することの正しさを保証するために、コード変換の合法性をチェックする必要がある。
このような合法性チェックは一般に正確に計算する必要があるが、スケジュール予測のために強化学習(RL)エージェントを訓練するなど、特定のケースでは近似的な合法性予測モデルを使用することができる。
本稿では,合法性チェックの近似手法を提案する。
本稿では,変換の合法性を予測するための新しいDLモデルを提案する。
モデルはコード表現と変換のリストを入力として取り、それらの変換をコードに適用することが合法かどうかを予測する。
提案モデルの実装と評価を行い,その有効性を実証する。
ランダムに生成したプログラムの試験セット上でのF1スコアは0.91である。
実用シナリオでモデルをさらに評価するために、自動コード最適化のために設計されたRLエージェントのトレーニングで使用される合法性チェックを置き換えるために、このモデルを使用した。
このような置換によりエージェントは2倍のステップでトレーニングが可能となり、トレーニングが高速化され、CPUが約80倍、RAMが35倍のリソース使用量が削減される。
このアプローチを使ってトレーニングされたエージェントは、従来の方法と比較して、Polybenchスイートからベンチマークを4倍削減するだけで、同等のパフォーマンスを維持している。
関連論文リスト
- Reinforcing General Reasoning without Verifiers [47.72684162518086]
本稿では,応答検証を回避し,RLを用いて参照応答を生成する確率を直接最大化する検証自由手法(VeriFree)を提案する。
VeriFreeは、MMLU-Pro、GPQA、SuperGPQA、数学関連のベンチマークにまたがる広範囲な評価において、検証者ベースの手法に匹敵する。
論文 参考訳(メタデータ) (2025-05-27T17:56:27Z) - InfAlign: Inference-aware language model alignment [58.66389179049758]
言語モデルのアライメントは、現代の生成言語モデルのトレーニングにおける重要なステップである。
この列車/テストのミスマッチは、推論時間法の観点から標準のRLHFフレームワークを最適化することを示す。
本稿では,ベースモデルに対するアライメントポリシーの予測時間勝利率を最適化することを目的とした,推論対応アライメント(InfAlign)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-27T18:45:36Z) - Test-Time Model Adaptation with Only Forward Passes [68.11784295706995]
テストタイム適応は、トレーニング済みのモデルを、潜在的に分布シフトのある未確認テストサンプルに適応させるのに有効であることが証明されている。
テスト時間フォワード最適化適応法(FOA)を提案する。
FOAは量子化された8ビットのViTで動作し、32ビットのViTで勾配ベースのTENTより優れ、ImageNet-Cで最大24倍のメモリ削減を実現する。
論文 参考訳(メタデータ) (2024-04-02T05:34:33Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - Proof-of-Learning: Definitions and Practice [15.585184189361486]
トレーニングマシンラーニング(ML)モデルは通常、高価な反復最適化を伴う。
現在、これらのパラメータが実際にこの最適化手順の結果であることを証明するためにモデルを訓練したエンティティのメカニズムはありません。
本稿では,MLにおける学習の証明という概念を紹介する。
論文 参考訳(メタデータ) (2021-03-09T18:59:54Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z) - The Right Tool for the Job: Matching Model and Instance Complexities [62.95183777679024]
NLPモデルが大きくなればなるほど、訓練されたモデルを実行するには、金銭的・環境的なコストを発生させる重要な計算資源が必要である。
我々は、推論中、早期(かつ高速)の"exit"を可能にする文脈表現微調整の修正を提案する。
3つのテキスト分類データセットと2つの自然言語推論ベンチマークの2つのタスクで、5つの異なるデータセットに対して提案した修正を検証した。
論文 参考訳(メタデータ) (2020-04-16T04:28:08Z) - Learning the Relation between Code Features and Code Transforms with
Structured Prediction [13.62633524166298]
条件付きランダムフィールド(CRF)を用いたASTノードのレベルでのコード変換を構造的に予測する最初の手法を提案する。
このアプローチはまず、特定のASTノードに特定のコード変換がどのように適用されるかをキャプチャする確率モデルをオフラインで学習し、次に学習したモデルを使用して、任意の新しい、目に見えないコードスニペットの変換を予測する。
論文 参考訳(メタデータ) (2019-07-22T12:42:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。