論文の概要: HiLDe: Intentional Code Generation via Human-in-the-Loop Decoding
- arxiv url: http://arxiv.org/abs/2505.22906v1
- Date: Wed, 28 May 2025 22:11:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.560354
- Title: HiLDe: Intentional Code Generation via Human-in-the-Loop Decoding
- Title(参考訳): HiLDe:Human-in-the-Loopデコーディングによる意図的コード生成
- Authors: Emmanuel Anaya González, Raven Rothkopf, Sorin Lerner, Nadia Polikarpova,
- Abstract要約: 本稿では,コード生成中のLCM決定を観察・直接的に影響を与える新しいインタラクション技術であるHuman-in-the-loop Decodingを提案する。
我々はこの手法を,LLMが決定する重要な決定を強調し,ユーザが探索するローカルな代替手段を提供するコード補完アシスタントであるHiLDeに実装する。
セキュリティ関連のタスクに関する調査(N=18)では、HiLDeが参加者に重大な脆弱性を発生させ、コード生成と目標の整合性を向上させたことが分かりました。
- 参考スコア(独自算出の注目度): 2.7884384057284612
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While AI programming tools hold the promise of increasing programmers' capabilities and productivity to a remarkable degree, they often exclude users from essential decision-making processes, causing many to effectively "turn off their brains" and over-rely on solutions provided by these systems. These behaviors can have severe consequences in critical domains, like software security. We propose Human-in-the-loop Decoding, a novel interaction technique that allows users to observe and directly influence LLM decisions during code generation, in order to align the model's output with their personal requirements. We implement this technique in HiLDe, a code completion assistant that highlights critical decisions made by the LLM and provides local alternatives for the user to explore. In a within-subjects study (N=18) on security-related tasks, we found that HiLDe led participants to generate significantly fewer vulnerabilities and better align code generation with their goals compared to a traditional code completion assistant.
- Abstract(参考訳): AIプログラミングツールは、プログラマの能力と生産性を著しく向上させるという約束を保っているが、ユーザを重要な意思決定プロセスから除外することが多い。
これらの振る舞いは、ソフトウェアセキュリティのような重要なドメインで深刻な結果をもたらす可能性がある。
提案するHuman-in-the-loop Decodingは,コード生成中のLCM決定の観察と直接的影響を可能にする,新たなインタラクション技術である。
我々はこの手法を,LLMが決定する重要な決定を強調し,ユーザが探索するローカルな代替手段を提供するコード補完アシスタントであるHiLDeに実装する。
セキュリティ関連のタスクに関するオブジェクト内調査(N=18)では、HiLDeが参加者に重大な脆弱性を発生させ、従来のコード補完アシスタントと比較してコード生成と目標との整合性を向上させたことが分かりました。
関連論文リスト
- Generative AI for Object-Oriented Programming: Writing the Right Code and Reasoning the Right Logic [2.170361965861349]
大規模言語モデル (LLM) は、財務、常識知識グラフ、医学、視覚分析にまたがる様々な応用がある。
私たちの研究は、OOPタスクに関わる主要な利害関係者の視点からビジョンを提示することで、このギャップに対処することを目的としています。
さらに,既存の論理的推論とコード記述を強化し,最終的にプログラミング体験を向上させる方法を提案する。
論文 参考訳(メタデータ) (2025-08-07T03:38:17Z) - Large Language Model Unlearning for Source Code [65.42425213605114]
PRODは、LLMがコード生成能力を保ちながら、望ましくないコード内容を忘れることができる新しいアンラーニングアプローチである。
本評価は,既存の未学習アプローチと比較して,忘れ品質とモデルユーティリティのバランスが良好であることを示す。
論文 参考訳(メタデータ) (2025-06-20T16:27:59Z) - Towards Machine-Generated Code for the Resolution of User Intentions [2.762180345826837]
AIの出現は、モデル生成コードのデプロイを通じて、ユーザが提供する意図解決のシフトを示唆する可能性がある。
本稿では,具体的なユーザ意図で LLM をプロンプトするコード生成による生成と実行の実現可能性について検討する。
本稿では,ユーザ意図,結果のコード,実行の詳細な分析と比較を行う。
論文 参考訳(メタデータ) (2025-04-24T13:19:17Z) - Pragmatic Reasoning improves LLM Code Generation [35.78260347663757]
我々は,Rational Speech Act (RSA) フレームワーク上に構築された新しいコード候補付け機構であるCodeRSAを提案する。
我々は、人気のあるコード生成データセット上で、最新のLarge Language Modelの1つを用いてCodeRSAを評価する。
論文 参考訳(メタデータ) (2025-02-20T12:44:26Z) - Enhancing Trust in Language Model-Based Code Optimization through RLHF: A Research Design [0.0]
本研究の目的は、人間のフィードバックを効果的に統合する、信頼性の高いLMを用いたコード最適化手法を開発することである。
この作業は、ソフトウェアエンジニアリングの協力的側面と人間中心の側面を前進させるという、より広範な目標と一致します。
論文 参考訳(メタデータ) (2025-02-10T18:48:45Z) - zsLLMCode: An Effective Approach for Code Embedding via LLM with Zero-Shot Learning [6.976968804436321]
本稿では,大言語モデル(LLM)と文埋め込みモデルを用いて,新たなゼロショット手法であるzsLLMCodeを提案する。
その結果,最先端の教師なしアプローチに対する提案手法の有効性と優位性を実証した。
論文 参考訳(メタデータ) (2024-09-23T01:03:15Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Agent-Driven Automatic Software Improvement [55.2480439325792]
本提案は,Large Language Models (LLMs) を利用したエージェントの展開に着目して,革新的なソリューションの探求を目的とする。
継続的学習と適応を可能にするエージェントの反復的性質は、コード生成における一般的な課題を克服するのに役立ちます。
我々は,これらのシステムにおける反復的なフィードバックを用いて,エージェントの基盤となるLLMをさらに微調整し,自動化されたソフトウェア改善のタスクに整合性を持たせることを目指している。
論文 参考訳(メタデータ) (2024-06-24T15:45:22Z) - DeAL: Decoding-time Alignment for Large Language Models [59.63643988872571]
大規模言語モデル(LLM)は、現在、人間の好みに沿ったコンテンツを生成することが期待されている。
本稿では,報酬関数をカスタマイズ可能なフレームワークであるDeALを提案し,LLMのDetime Alignmentを可能にする。
実験の結果,粒度の細かいトレードオフでDeALを実現できること,アライメント目標への適合性の向上,LLMの残差の解消が可能であることがわかった。
論文 参考訳(メタデータ) (2024-02-05T06:12:29Z) - An Empirical Study on Usage and Perceptions of LLMs in a Software
Engineering Project [1.433758865948252]
大規模言語モデル(LLM)は人工知能の飛躍であり、人間の言語を用いたタスクに優れる。
本稿では、AI生成したコードを分析し、コード生成に使用するプロンプトと人間の介入レベルを分析し、コードをコードベースに統合する。
ソフトウェア開発の初期段階において,LSMが重要な役割を担っていることが示唆された。
論文 参考訳(メタデータ) (2024-01-29T14:32:32Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous Driving [84.31119464141631]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。