論文の概要: Learning Program Behavioral Models from Synthesized Input-Output Pairs
- arxiv url: http://arxiv.org/abs/2407.08597v2
- Date: Mon, 17 Mar 2025 15:04:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 15:57:53.019038
- Title: Learning Program Behavioral Models from Synthesized Input-Output Pairs
- Title(参考訳): 合成入力出力ペアによるプログラム行動モデル学習
- Authors: Tural Mammadov, Dietrich Klakow, Alexander Koller, Andreas Zeller,
- Abstract要約: 本稿では,ニューラルマシン翻訳アルゴリズムを用いて,入力/出力動作からモデルを学習するフレームワークであるModelizerを紹介する。
Modelizerはオリジナルのプログラムをモックし、95.4%の精度でBLEUスコアは0.98で、現実世界のアプリケーションのモックには0.04の標準エラーがある。
プログラムの出力がプログラムの振舞いのあらゆる側面となるため、これらのモデルのいくつかの応用を予想する。
- 参考スコア(独自算出の注目度): 70.9524884086882
- License:
- Abstract: We introduce Modelizer - a novel framework that, given a black-box program, learns a model from its input/output behavior using neural machine translation algorithms. The resulting model mocks the original program: Given an input, the model predicts the output that would have been produced by the program. However, the model is also reversible - that is, the model can predict the input that would have produced a given output. Finally, the model is differentiable and can be efficiently restricted to predict only a certain aspect of the program behavior. Modelizer uses grammars to synthesize and inputs and unsupervised tokenizers to decompose the resulting outputs, allowing it to learn sequence-to-sequence associations between token streams. Other than input grammars, Modelizer only requires the ability to execute the program. The resulting models are small, requiring fewer than 6.3 million parameters for languages such as Markdown or HTML; and they are accurate, achieving up to 95.4% accuracy and a BLEU score of 0.98 with standard error 0.04 in mocking real-world applications. As it learns from and predicts executions rather than code, Modelizer departs from the LLM-centric research trend, opening new opportunities for program-specific models that are fully tuned towards individual programs. Indeed, we foresee several applications of these models, especially as the output of the program can be any aspect of program behavior. Beyond mocking and predicting program behavior, the models can also synthesize inputs that are likely to produce a particular behavior, such as failures or coverage, thus assisting in program understanding and maintenance.
- Abstract(参考訳): ブラックボックスプログラムを与えられた新しいフレームワークであるModelizerを紹介し、ニューラルマシン翻訳アルゴリズムを用いて入力/出力動作からモデルを学ぶ。
入力を与えられたモデルは、プログラムが生成したであろう出力を予測する。
しかし、モデルもまた可逆的であり、つまり、モデルは与えられた出力を生成したであろう入力を予測することができる。
最後に、モデルは微分可能であり、プログラムの振る舞いの特定の側面のみを予測するために効率的に制限することができる。
Modelizerは文法を使って生成した出力を合成し、入力し、教師なしのトークン化器で分解し、トークンストリーム間のシーケンスとシーケンスの関連を学習する。
入力文法以外では、Modelizerはプログラムを実行する能力のみを必要とする。
結果のモデルは小さく、MarkdownやHTMLのような言語では630万のパラメータを必要とせず、精度は95.4%、BLEUスコアは0.98で、現実世界のアプリケーションでは0.04でモックされている。
コードではなく実行を学習し予測する中で、ModelizerはLLM中心の研究トレンドから離れ、個々のプログラムに完全に調整されたプログラム固有のモデルに新たな機会を開く。
実際、プログラムの出力がプログラムの振舞いのあらゆる側面であるので、これらのモデルのいくつかの応用を予測できる。
プログラムの振る舞いのモック化や予測に加えて、モデルはまた、障害やカバレッジなどの特定の振る舞いを生成する可能性のある入力を合成して、プログラムの理解とメンテナンスを支援する。
関連論文リスト
- Language Models Can Predict Their Own Behavior [28.80639362933004]
入力トークンの内部表現だけでは、次のトークンだけでなく、出力シーケンス全体に対する最終的な振る舞いを正確に予測できることがよく示されます。
この能力を活用して、内部状態のプローブを学習して、早期警告(および終了)システムを作成します。
具体的には、探査機がLMの振る舞いを確実に見積もることができれば、システムはトークンを全く生成せず、代わりに推定された振る舞いを返す。
論文 参考訳(メタデータ) (2025-02-18T23:13:16Z) - Knockout: A simple way to handle missing inputs [8.05324050767023]
リッチなインプットを利用するモデルは、推論時にいくつかのインプットが欠落している可能性があるため、広くデプロイすることは困難である。
この問題に対する現在の一般的な解決策には、余剰化、計算、複数のモデルのトレーニングがある。
完全入力と限界分布を用いて条件分布を効率よく学習する方法を提案する。
論文 参考訳(メタデータ) (2024-05-30T19:47:34Z) - Language models scale reliably with over-training and on downstream tasks [121.69867718185125]
スケーリング法則は、高価なトレーニング実行を引き出すための有用なガイドである。
しかし、現在の研究と言語モデルがどのように訓練されているかには差がある。
対照的に、スケーリング法則は主に推論における損失を予測するが、モデルは通常下流のタスクのパフォーマンスで比較される。
論文 参考訳(メタデータ) (2024-03-13T13:54:00Z) - Training Trajectories of Language Models Across Scales [99.38721327771208]
言語モデルのスケールアップは、前例のないパフォーマンス向上につながった。
異なるサイズの言語モデルは事前学習中にどのように学習するか?
より大きな言語モデルはなぜ望ましい振る舞いを示すのか?
論文 参考訳(メタデータ) (2022-12-19T19:16:29Z) - Multi-Model Probabilistic Programming [0.0]
本稿では,各プログラムが関係する確率モデルのネットワークを表現できる確率計画の拡張について述べる。
本稿では,これらの多モデル確率型プログラムの形式的意味論,ネットワーク・オブ・モデル演算のための効率的なアルゴリズムの集合,および一般的な確率型言語であるStan上に構築されたサンプル実装について述べる。
このネットワーク・オブ・モデル表現は、モデル空間における検索と自動化、モデル開発の追跡とコミュニケーション、pハックのような問題を緩和する明示的なモデラー自由度を含む、多くの扉を開く。
論文 参考訳(メタデータ) (2022-08-12T15:38:15Z) - Fast Model Editing at Scale [77.69220974621425]
MEND(Gradient Decomposition)を用いたモデルエディタネットワークを提案する。
MENDは、所望の入力出力ペアを使って、訓練済みのモデルに高速で局所的な編集を行う、小さな補助的な編集ネットワークの集合である。
MENDは100億以上のパラメータモデルであっても、1日以内で1つのGPUでトレーニングすることができる。
論文 参考訳(メタデータ) (2021-10-21T17:41:56Z) - Program Synthesis with Large Language Models [40.41120807053989]
我々はPythonにおけるプログラム合成のための大規模言語モデルを評価する。
合成性能はモデルサイズと対数的にスケールすることがわかった。
最高のモデルでさえ、特定の入力を与えられたプログラムの出力を予測できないことが分かりました。
論文 参考訳(メタデータ) (2021-08-16T03:57:30Z) - Investigation of Sentiment Controllable Chatbot [50.34061353512263]
本稿では,反応の感情をスケールまたは調整する4つのモデルについて検討する。
モデルはペルソナベースのモデル、強化学習、プラグアンドプレイモデル、CycleGANである。
入力に対して応答が妥当かどうかを推定するために,機械評価メトリクスを開発する。
論文 参考訳(メタデータ) (2020-07-11T16:04:30Z) - Imputer: Sequence Modelling via Imputation and Dynamic Programming [101.5705527605346]
Imputerは反復生成モデルであり、入力トークンや出力トークンの数に依存しない一定の数の生成ステップしか必要としない。
本稿では,ログ限界確率の低い動的プログラミング学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-20T18:21:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。