論文の概要: Data-Driven and SE-assisted AI Model Signal-Awareness Enhancement and
Introspection
- arxiv url: http://arxiv.org/abs/2111.05827v1
- Date: Wed, 10 Nov 2021 17:58:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-11 14:55:47.521807
- Title: Data-Driven and SE-assisted AI Model Signal-Awareness Enhancement and
Introspection
- Title(参考訳): データ駆動型SE支援AIモデル信号認識の強化とイントロスペクション
- Authors: Sahil Suneja, Yufan Zhuang, Yunhui Zheng, Jim Laredo, Alessandro
Morari
- Abstract要約: モデルの信号認識性を高めるためのデータ駆動型手法を提案する。
コード複雑性のSE概念とカリキュラム学習のAIテクニックを組み合わせる。
モデル信号認識における最大4.8倍の改善を実現している。
- 参考スコア(独自算出の注目度): 61.571331422347875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI modeling for source code understanding tasks has been making significant
progress, and is being adopted in production development pipelines. However,
reliability concerns, especially whether the models are actually learning
task-related aspects of source code, are being raised. While recent
model-probing approaches have observed a lack of signal awareness in many
AI-for-code models, i.e. models not capturing task-relevant signals, they do
not offer solutions to rectify this problem. In this paper, we explore
data-driven approaches to enhance models' signal-awareness: 1) we combine the
SE concept of code complexity with the AI technique of curriculum learning; 2)
we incorporate SE assistance into AI models by customizing Delta Debugging to
generate simplified signal-preserving programs, augmenting them to the training
dataset. With our techniques, we achieve up to 4.8x improvement in model signal
awareness. Using the notion of code complexity, we further present a novel
model learning introspection approach from the perspective of the dataset.
- Abstract(参考訳): ソースコード理解タスクのためのAIモデリングは大きな進歩を遂げており、本番開発パイプラインで採用されている。
しかし、特にモデルが実際にソースコードのタスク関連の側面を学習しているかどうかという信頼性の懸念が高まっている。
最近のモデルプローピングアプローチでは、多くのai for codeモデル、すなわち、タスク関連の信号をキャプチャしないモデルにおいて、信号認識の欠如が観察されているが、この問題を正すためのソリューションを提供していない。
本稿では,モデルの信号認識性を高めるためのデータ駆動アプローチについて考察する。
1) コード複雑性のSE概念とカリキュラム学習のAI技術を組み合わせる。
2) デルタデバッグをカスタマイズして簡易な信号保存プログラムを生成し,トレーニングデータセットに拡張することで,AIモデルにSEアシストを組み込む。
この手法により,モデル信号認識の最大4.8倍の改善を実現する。
コード複雑性の概念を用いて,データセットの観点から新たなモデル学習イントロスペクションアプローチを提案する。
関連論文リスト
- SRA-MCTS: Self-driven Reasoning Augmentation with Monte Carlo Tree Search for Code Generation [14.786100203787194]
大規模な言語モデルは、単純なコード生成タスクでは例外的なパフォーマンスを示しますが、複雑な問題に対処する上での課題に直面します。
本稿では,高品質な中間推論経路を自律的に生成するモデルであるSRA-MCTSを提案する。
我々の手法は、追加の監督を必要とせず、モデル自体を通して完全に機能する。
論文 参考訳(メタデータ) (2024-11-17T12:31:04Z) - Two-Timescale Model Caching and Resource Allocation for Edge-Enabled AI-Generated Content Services [55.0337199834612]
Generative AI(GenAI)は、カスタマイズされたパーソナライズされたAI生成コンテンツ(AIGC)サービスを可能にするトランスフォーメーション技術として登場した。
これらのサービスは数十億のパラメータを持つGenAIモデルの実行を必要とし、リソース制限の無線エッジに重大な障害を生じさせる。
我々は、AIGC品質とレイテンシメトリクスのトレードオフをバランスさせるために、AIGCサービスのジョイントモデルキャッシングとリソースアロケーションの定式化を導入する。
論文 参考訳(メタデータ) (2024-11-03T07:01:13Z) - Next-Gen Software Engineering: AI-Assisted Big Models [0.0]
本稿では,ソフトウェア工学におけるモデルとAIの合成を容易にすることを目的とする。
本稿では,AI支援ソフトウェア工学の現状について概説する。
SEにおけるAI支援ビッグデータのビジョンは、両方のアプローチに固有のアドバンテージを活用することを目的としている。
論文 参考訳(メタデータ) (2024-09-26T16:49:57Z) - A comprehensible analysis of the efficacy of Ensemble Models for Bug
Prediction [0.0]
我々は,単一のAIモデルとアンサンブルAIモデルという,2つのAIベースのアプローチの比較と分析を行い,Javaクラスがバグのある確率を予測する。
実験結果から,AIモデルのアンサンブルは,個々のAIモデルの適用結果より優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-10-18T17:43:54Z) - AlerTiger: Deep Learning for AI Model Health Monitoring at LinkedIn [4.020770981811131]
AlerTigerは、企業のAIチームがAIモデルの健康状態を監視するのを支援する。
システムは、モデル統計生成、ディープラーニングベースの異常検出、異常後処理、ユーザ警告の4つの主要なステップで構成されている。
論文 参考訳(メタデータ) (2023-06-03T01:21:58Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - AI Model Utilization Measurements For Finding Class Encoding Patterns [2.702380921892937]
この研究は、訓練された人工知能(AI)モデルの活用度測定を設計する際の問題に対処する。
この問題は、セキュリティおよび安全クリティカルなアプリケーションにおけるAIモデルの説明可能性の欠如によって動機付けられている。
論文 参考訳(メタデータ) (2022-12-12T02:18:10Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。