論文の概要: Towards Trustworthy AI Software Development Assistance
- arxiv url: http://arxiv.org/abs/2312.09126v2
- Date: Tue, 23 Jan 2024 09:37:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 18:45:31.455787
- Title: Towards Trustworthy AI Software Development Assistance
- Title(参考訳): 信頼できるAIソフトウェア開発支援に向けて
- Authors: Daniel Maninger, Krishna Narasimhan, Mira Mezini
- Abstract要約: 現在のソフトウェア開発アシスタントは信頼できない傾向があり、しばしば誤った、安全でない、あるいは品質の低いコードを生成する。
我々は、信頼できるAIソフトウェア開発アシスタントの構築、トレーニング、使用のための全体的アーキテクチャを導入することで、これらの問題を解決することを目指している。
- 参考スコア(独自算出の注目度): 0.599251270168187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is expected that in the near future, AI software development assistants
will play an important role in the software industry. However, current software
development assistants tend to be unreliable, often producing incorrect,
unsafe, or low-quality code. We seek to resolve these issues by introducing a
holistic architecture for constructing, training, and using trustworthy AI
software development assistants. In the center of the architecture, there is a
foundational LLM trained on datasets representative of real-world coding
scenarios and complex software architectures, and fine-tuned on code quality
criteria beyond correctness. The LLM will make use of graph-based code
representations for advanced semantic comprehension. We envision a knowledge
graph integrated into the system to provide up-to-date background knowledge and
to enable the assistant to provide appropriate explanations. Finally, a modular
framework for constrained decoding will ensure that certain guarantees (e.g.,
for correctness and security) hold for the generated code.
- Abstract(参考訳): 近い将来、AIソフトウェア開発アシスタントがソフトウェア産業において重要な役割を果たすことが期待されている。
しかし、現在のソフトウェア開発アシスタントは信頼できない傾向にあり、しばしば誤った、安全でない、あるいは品質の低いコードを生成する。
我々は、信頼できるAIソフトウェア開発アシスタントの構築、トレーニング、使用のための全体的アーキテクチャを導入することで、これらの問題を解決することを目指している。
アーキテクチャの中心には、現実世界のコーディングシナリオと複雑なソフトウェアアーキテクチャを表すデータセットでトレーニングされた基礎的なllmがあり、正確性を超えたコード品質基準に微調整されています。
LLMは、高度な意味理解のためにグラフベースのコード表現を利用する。
我々は,システムに統合された知識グラフを想定し,最新の背景知識を提供し,アシスタントが適切な説明を行えるようにする。
最後に、制約付きデコードのためのモジュラーフレームワークは、特定の保証(例えば、正確性とセキュリティ)が生成されたコードを保持することを保証します。
関連論文リスト
- How Far Have We Gone in Stripped Binary Code Understanding Using Large Language Models [51.527805834378974]
バイナリコード理解におけるLarge Language Models(LLM)の有効性を評価するためのベンチマークを提案する。
評価の結果、既存のLLMはバイナリコードをある程度理解でき、それによってバイナリコード解析の効率が向上することが明らかとなった。
論文 参考訳(メタデータ) (2024-04-15T14:44:08Z) - DevBench: A Comprehensive Benchmark for Software Development [72.24266814625685]
DevBenchは、ソフトウェア開発ライフサイクルのさまざまな段階にわたる大規模言語モデル(LLM)を評価するベンチマークである。
GPT-4-Turboを含む現在のLLMは、DevBench内での課題の解決に失敗している。
本研究は,LLMを現実のプログラミングアプリケーションに展開する上で,現実的な知見を提供するものである。
論文 参考訳(メタデータ) (2024-03-13T15:13:44Z) - LLM-Powered Code Vulnerability Repair with Reinforcement Learning and
Semantic Reward [3.729516018513228]
我々は,大規模な言語モデルであるCodeGen2を利用した多目的コード脆弱性解析システム texttSecRepair を導入する。
そこで本研究では,LLMを用いた脆弱性解析に適した命令ベースデータセットを提案する。
GitHub上の6つのオープンソースIoTオペレーティングシステムにおいて、ゼロデイとNデイの脆弱性を特定します。
論文 参考訳(メタデータ) (2024-01-07T02:46:39Z) - Developer Experiences with a Contextualized AI Coding Assistant:
Usability, Expectations, and Outcomes [11.520721038793285]
この研究は、コンテキスト化されたコーディングAIアシスタントであるStackSpot AIを制御された環境で使用した62人の参加者の初期体験に焦点を当てる。
アシスタントの使用は、大幅な時間を節約し、ドキュメントへのアクセスを容易にし、内部APIの正確なコードを生成する結果となった。
コーディングアシスタントが、複雑なコードを扱う際の変数応答や制限と同様に、よりコンテキスト情報にアクセスできるようにするために必要な知識ソースに関連する課題が観察された。
論文 参考訳(メタデータ) (2023-11-30T10:52:28Z) - Prompted Software Engineering in the Era of AI Models [1.450405446885067]
本稿では、言語ベースのAIモデルのための効果的なプロンプトを構築するために、プロンプトエンジニアリングを統合した、プロンプトソフトウェアエンジニアリング(PSE)を紹介する。
PSEは、ソフトウェア開発にAIモデルを使用することで、少ないリソースで高品質なソフトウェアを生産し、面倒なタスクを自動化し、開発者がより革新的な側面に集中できるようにする。
論文 参考訳(メタデータ) (2023-09-07T20:40:04Z) - Communicative Agents for Software Development [79.86905471184195]
ChatDevはチャットを利用した仮想ソフトウェア開発会社で、確立したウォーターフォールモデルを反映している。
各ステージは、プログラマ、コードレビュアー、テストエンジニアといった"ソフトウェアエージェント"のチームが参加し、協調的な対話を促進する。
ChatDevは潜在的な脆弱性を特定し、信頼できる効率とコスト効率を維持しながら幻覚を正す。
論文 参考訳(メタデータ) (2023-07-16T02:11:34Z) - Natural Language Generation and Understanding of Big Code for
AI-Assisted Programming: A Review [9.355153561673855]
本稿では,Big Codeを用いてトレーニングしたトランスフォーマーベース大規模言語モデル(LLM)に焦点を当てる。
LLMは、コード生成、コード補完、コード翻訳、コード洗練、コードの要約、欠陥検出、クローン検出など、AI支援プログラミングアプリケーションを促進する上で重要な役割を担っている。
これらのアプリケーションにNLP技術とソフトウェア自然性を導入する上での課題と機会を探究する。
論文 参考訳(メタデータ) (2023-07-04T21:26:51Z) - Developing Hands-on Labs for Source Code Vulnerability Detection with AI [0.0]
我々は、将来のIT専門家をセキュアなプログラミングの習慣へと導くために、モジュールの学習と実験室への手引きを含むフレームワークを提案する。
このテーマは、ソースコードとログファイル分析ツールを使用して、セキュアなプログラミングプラクティスを学生に紹介するラボで、学習モジュールを設計することを目的としています。
論文 参考訳(メタデータ) (2023-02-01T20:53:58Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Empowered and Embedded: Ethics and Agile Processes [60.63670249088117]
私たちは倫理的考慮事項を(アジャイル)ソフトウェア開発プロセスに組み込む必要があると論じています。
私たちは、すでに存在しており、確立されたアジャイルソフトウェア開発プロセスで倫理的な議論を実施する可能性を強調しました。
論文 参考訳(メタデータ) (2021-07-15T11:14:03Z) - Technology Readiness Levels for Machine Learning Systems [107.56979560568232]
機械学習システムの開発とデプロイは、現代のツールで簡単に実行できますが、プロセスは一般的に急ぎ、エンドツーエンドです。
私たちは、機械学習の開発と展開のための実証済みのシステムエンジニアリングアプローチを開発しました。
当社の「機械学習技術準備レベル」フレームワークは、堅牢で信頼性が高く、責任あるシステムを確保するための原則的なプロセスを定義します。
論文 参考訳(メタデータ) (2021-01-11T15:54:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。