論文の概要: HiLDe: Intentional Code Generation via Human-in-the-Loop Decoding
- arxiv url: http://arxiv.org/abs/2505.22906v1
- Date: Wed, 28 May 2025 22:11:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.560354
- Title: HiLDe: Intentional Code Generation via Human-in-the-Loop Decoding
- Title(参考訳): HiLDe:Human-in-the-Loopデコーディングによる意図的コード生成
- Authors: Emmanuel Anaya González, Raven Rothkopf, Sorin Lerner, Nadia Polikarpova,
- Abstract要約: 本稿では,コード生成中のLCM決定を観察・直接的に影響を与える新しいインタラクション技術であるHuman-in-the-loop Decodingを提案する。
我々はこの手法を,LLMが決定する重要な決定を強調し,ユーザが探索するローカルな代替手段を提供するコード補完アシスタントであるHiLDeに実装する。
セキュリティ関連のタスクに関する調査(N=18)では、HiLDeが参加者に重大な脆弱性を発生させ、コード生成と目標の整合性を向上させたことが分かりました。
- 参考スコア(独自算出の注目度): 2.7884384057284612
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While AI programming tools hold the promise of increasing programmers' capabilities and productivity to a remarkable degree, they often exclude users from essential decision-making processes, causing many to effectively "turn off their brains" and over-rely on solutions provided by these systems. These behaviors can have severe consequences in critical domains, like software security. We propose Human-in-the-loop Decoding, a novel interaction technique that allows users to observe and directly influence LLM decisions during code generation, in order to align the model's output with their personal requirements. We implement this technique in HiLDe, a code completion assistant that highlights critical decisions made by the LLM and provides local alternatives for the user to explore. In a within-subjects study (N=18) on security-related tasks, we found that HiLDe led participants to generate significantly fewer vulnerabilities and better align code generation with their goals compared to a traditional code completion assistant.
- Abstract(参考訳): AIプログラミングツールは、プログラマの能力と生産性を著しく向上させるという約束を保っているが、ユーザを重要な意思決定プロセスから除外することが多い。
これらの振る舞いは、ソフトウェアセキュリティのような重要なドメインで深刻な結果をもたらす可能性がある。
提案するHuman-in-the-loop Decodingは,コード生成中のLCM決定の観察と直接的影響を可能にする,新たなインタラクション技術である。
我々はこの手法を,LLMが決定する重要な決定を強調し,ユーザが探索するローカルな代替手段を提供するコード補完アシスタントであるHiLDeに実装する。
セキュリティ関連のタスクに関するオブジェクト内調査(N=18)では、HiLDeが参加者に重大な脆弱性を発生させ、従来のコード補完アシスタントと比較してコード生成と目標との整合性を向上させたことが分かりました。
関連論文リスト
- Towards Machine-Generated Code for the Resolution of User Intentions [2.762180345826837]
AIの出現は、モデル生成コードのデプロイを通じて、ユーザが提供する意図解決のシフトを示唆する可能性がある。
本稿では,具体的なユーザ意図で LLM をプロンプトするコード生成による生成と実行の実現可能性について検討する。
本稿では,ユーザ意図,結果のコード,実行の詳細な分析と比較を行う。
論文 参考訳(メタデータ) (2025-04-24T13:19:17Z) - Pragmatic Reasoning improves LLM Code Generation [35.78260347663757]
我々は,Rational Speech Act (RSA) フレームワーク上に構築された新しいコード候補付け機構であるCodeRSAを提案する。
我々は、人気のあるコード生成データセット上で、最新のLarge Language Modelの1つを用いてCodeRSAを評価する。
論文 参考訳(メタデータ) (2025-02-20T12:44:26Z) - zsLLMCode: An Effective Approach for Code Embedding via LLM with Zero-Shot Learning [6.976968804436321]
本稿では,大言語モデル(LLM)と文埋め込みモデルを用いて,新たなゼロショット手法であるzsLLMCodeを提案する。
その結果,最先端の教師なしアプローチに対する提案手法の有効性と優位性を実証した。
論文 参考訳(メタデータ) (2024-09-23T01:03:15Z) - Agent-Driven Automatic Software Improvement [55.2480439325792]
本提案は,Large Language Models (LLMs) を利用したエージェントの展開に着目して,革新的なソリューションの探求を目的とする。
継続的学習と適応を可能にするエージェントの反復的性質は、コード生成における一般的な課題を克服するのに役立ちます。
我々は,これらのシステムにおける反復的なフィードバックを用いて,エージェントの基盤となるLLMをさらに微調整し,自動化されたソフトウェア改善のタスクに整合性を持たせることを目指している。
論文 参考訳(メタデータ) (2024-06-24T15:45:22Z) - DeAL: Decoding-time Alignment for Large Language Models [59.63643988872571]
大規模言語モデル(LLM)は、現在、人間の好みに沿ったコンテンツを生成することが期待されている。
本稿では,報酬関数をカスタマイズ可能なフレームワークであるDeALを提案し,LLMのDetime Alignmentを可能にする。
実験の結果,粒度の細かいトレードオフでDeALを実現できること,アライメント目標への適合性の向上,LLMの残差の解消が可能であることがわかった。
論文 参考訳(メタデータ) (2024-02-05T06:12:29Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous Driving [84.31119464141631]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。