論文の概要: Position: Vibe Coding Needs Vibe Reasoning: Improving Vibe Coding with Formal Verification
- arxiv url: http://arxiv.org/abs/2511.00202v1
- Date: Fri, 31 Oct 2025 19:01:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.668576
- Title: Position: Vibe Coding Needs Vibe Reasoning: Improving Vibe Coding with Formal Verification
- Title(参考訳): 位置: Vibe Coding は Vibe Reasoning を必要とする: 形式的検証による Vibe Coding の改善
- Authors: Jacqueline Mitchell, Yasser Shaaban,
- Abstract要約: これらの落とし穴は、バイブ符号化中に人間に課された制約を和らげることのできないLSMが原因である、と我々は主張する。
1emphAutoformalizes Specification against target, (2) Delivers emphactionable feedback to the LLM, and (4) allows intuitive developer influence on Specification。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ``Vibe coding'' -- the practice of developing software through iteratively conversing with a large language model (LLM) -- has exploded in popularity within the last year. However, developers report key limitations including the accumulation of technical debt, security issues, and code churn to achieve satisfactory results. We argue that these pitfalls result from LLMs' inability to reconcile accumulating human-imposed constraints during vibe coding, with developers inadvertently failing to resolve contradictions because LLMs prioritize user commands over code consistency. Given LLMs' receptiveness to verification-based feedback, we argue that formal methods can mitigate these pitfalls, making vibe coding more reliable. However, we posit that integrating formal methods must transcend existing approaches that combine formal methods and LLMs. We advocate for a side-car system throughout the vibe coding process which: (1) \emph{Autoformalizes} specifications (2) Validates against targets, (3) Delivers \emph{actionable} feedback to the LLM, and (4) Allows intuitive developer influence on specifications.
- Abstract(参考訳): 大規模言語モデル(LLM)と反復的に会話することでソフトウェアを開発するプラクティスである‘Vibe coding’’が昨年,人気を博している。
しかしながら、開発者は、技術的負債の蓄積、セキュリティ問題、そして満足な結果を達成するためのコードチャーンを含む重要な制限を報告します。
これらの落とし穴は、コード一貫性よりもLCMがユーザコマンドを優先するので、開発者が矛盾を解決できないため、バイブコーディング中に人間に付与された制約を調整できないことが原因である、と我々は主張する。
LLMの検証に基づくフィードバックに対する受容性を考えると、形式的手法はこれらの落とし穴を緩和し、ビブ符号化をより信頼性を高めることができると論じる。
しかし、形式的手法を統合するには、形式的手法とLLMを組み合わせた既存のアプローチを超越する必要があると仮定する。
1) \emph{Autoformalizes} 仕様の検証,(3) LLM へのフィードバックの提供,(4) 仕様に対する直感的な開発者の影響を認める。
関連論文リスト
- Uncovering Systematic Failures of LLMs in Verifying Code Against Natural Language Specifications [0.6813925418351435]
大規模言語モデル(LLM)はソフトウェア開発において不可欠なツールとなり、要求工学、コード生成、レビュータスクに広く利用されている。
本稿では,LLMが自然言語の要求に適合するかどうかを評価する上で,体系的に失敗していることを明らかにする。
以上の結果から,LCMは要件を満たすことのできないコード実装や潜在的な欠陥を含むコード実装を誤って分類することが多いことが判明した。
論文 参考訳(メタデータ) (2025-08-17T13:07:26Z) - Can Code Language Models Learn Clarification-Seeking Behaviors? [4.788534218705066]
ClarifyCoderは,合成データ生成と命令調整を行うフレームワークである。
ClarifyCoderは,あいまいなタスクに対して,コミュニケーション率63%,質問率52%を達成した。
論文 参考訳(メタデータ) (2025-04-23T00:34:39Z) - DeAL: Decoding-time Alignment for Large Language Models [58.368979253590794]
大規模言語モデル(LLM)は、現在、人間の好みに沿ったコンテンツを生成することが期待されている。
我々は,報酬関数をカスタマイズし,LLMの復号時間アライメントを可能にするフレームワークであるDeALを提案する。
論文 参考訳(メタデータ) (2024-02-05T06:12:29Z) - Code Prompting Elicits Conditional Reasoning Abilities in Text+Code LLMs [65.2379940117181]
自然言語の問題をコードに変換する一連のプロンプトであるコードプロンプトを導入します。
コードプロンプトは複数のLLMに対して高速に向上することがわかった。
GPT 3.5を解析した結果,入力問題のコードフォーマッティングが性能向上に不可欠であることが判明した。
論文 参考訳(メタデータ) (2024-01-18T15:32:24Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Fixing Large Language Models' Specification Misunderstanding for Better Code Generation [13.494822086550604]
muFiXは、大きな言語モデル(LLM)のコード生成性能を改善する新しいプロンプト技術である。
まず、テストケース分析を利用して仕様の理解を得、自己改善プロセスを可能にする。
muFiXはさらに、提供された理解と実際の理解の間のギャップを減らす方向に向けた仕様理解を修正している。
論文 参考訳(メタデータ) (2023-09-28T02:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。