論文の概要: Abductive Vibe Coding (Extended Abstract)
- arxiv url: http://arxiv.org/abs/2601.01199v1
- Date: Sat, 03 Jan 2026 14:57:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.072959
- Title: Abductive Vibe Coding (Extended Abstract)
- Title(参考訳): Abductive Vibe Coding (Extended Abstract)
- Authors: Logan Murphy, Aren A. Babikian, Marsha Chechik,
- Abstract要約: この抽象論は、ビブ符号化されたアーティファクトの妥当性に関する分析可能な半形式的理性の抽出に向けた進行中の作業について述べる。
我々のフレームワークは、直接正確性を決定するのではなく、生成したコードが適切に考慮された条件のセットを生成します。
- 参考スコア(独自算出の注目度): 5.33940904910024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When software artifacts are generated by AI models ("vibe coding"), human engineers assume responsibility for validating them. Ideally, this validation would be done through the creation of a formal proof of correctness. However, this is infeasible for many real-world vibe coding scenarios, especially when requirements for the AI-generated artifacts resist formalization. This extended abstract describes ongoing work towards the extraction of analyzable, semi-formal rationales for the adequacy of vibe-coded artifacts. Rather than deciding correctness directly, our framework produces a set of conditions under which the generated code can be considered adequate. We describe current efforts towards implementing our framework and anticipated research opportunities.
- Abstract(参考訳): ソフトウェアアーチファクトがAIモデル(“バイブコーディング”)によって生成される場合、ヒューマンエンジニアはそれらを検証する責任を負う。
理想的には、この検証は正当性の正式な証明を作成することによって行われる。
しかし、これは、AI生成アーティファクトの要件が形式化に抵抗する場合に、多くの実世界のビブコーディングシナリオでは実現不可能である。
この拡張抽象論は、ビブ符号化されたアーティファクトの妥当性に関する分析可能な半形式的理性の抽出に向けた進行中の作業について記述している。
我々のフレームワークは、直接正確性を決定するのではなく、生成したコードが適切に考慮された条件のセットを生成します。
本稿では,本フレームワークの実装に向けた現在の取り組みと今後の研究機会について述べる。
関連論文リスト
- Simple Agents Outperform Experts in Biomedical Imaging Workflow Optimization [69.36509281190662]
生産レベルのコンピュータビジョンツールを科学データセットに適応させることは、重要な"ラストマイル"ボトルネックである。
我々は、AIエージェントを使ってこの手動コーディングを自動化し、最適なエージェント設計のオープンな問題に焦点を当てる。
簡単なエージェントフレームワークが、人間-専門家のソリューションよりも優れた適応コードを生成することを実証する。
論文 参考訳(メタデータ) (2025-12-02T18:42:26Z) - Re:Form -- Reducing Human Priors in Scalable Formal Software Verification with RL in LLMs: A Preliminary Study on Dafny [78.1575956773948]
強化学習(RL)で訓練された大規模言語モデル(LLM)は、信頼性も拡張性もない、という大きな課題に直面している。
有望だが、ほとんど報われていない代替手段は、フォーマルな言語ベースの推論である。
生成モデルが形式言語空間(例えばダフニー)で機能する厳密な形式体系におけるLLMの接地は、それらの推論プロセスと結果の自動的かつ数学的に証明可能な検証を可能にする。
論文 参考訳(メタデータ) (2025-07-22T08:13:01Z) - Leveraging LLMs for Formal Software Requirements -- Challenges and Prospects [0.0]
VERIFAI1は、このギャップを埋めるための自動化および半自動化アプローチを調査することを目的としている。
本論文では, 課題の繰り返しと今後の研究方向性を明らかにするために, 関連文献の予備的な合成について述べる。
論文 参考訳(メタデータ) (2025-07-18T19:15:50Z) - VEL: A Formally Verified Reasoner for OWL2 EL Profile [0.0]
VEL はマシンチェック可能な正当性証明を備えた公式な EL++ 推論器である。
本研究は,理論および実装レベルでの正確性を確保するために,推論アルゴリズムの機械化の必要性を実証するものである。
論文 参考訳(メタデータ) (2024-12-11T19:17:28Z) - Generation Probabilities Are Not Enough: Uncertainty Highlighting in AI Code Completions [54.55334589363247]
本研究では,不確実性に関する情報を伝達することで,プログラマがより迅速かつ正確にコードを生成することができるかどうかを検討する。
トークンのハイライトは、編集される可能性が最も高いので、タスクの完了が早くなり、よりターゲットを絞った編集が可能になることがわかりました。
論文 参考訳(メタデータ) (2023-02-14T18:43:34Z) - Hierarchical Variational Autoencoder for Visual Counterfactuals [79.86967775454316]
条件変量オート(VAE)は、説明可能な人工知能(XAI)ツールとして注目されている。
本稿では, 後部の効果がいかに緩和され, 対物的効果が成功するかを示す。
本稿では,アプリケーション内の分類器を視覚的に監査できる階層型VAEについて紹介する。
論文 参考訳(メタデータ) (2021-02-01T14:07:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。