論文の概要: Selective Shot Learning for Code Explanation
- arxiv url: http://arxiv.org/abs/2412.12852v1
- Date: Tue, 17 Dec 2024 12:26:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 14:02:26.946860
- Title: Selective Shot Learning for Code Explanation
- Title(参考訳): コード記述のための選択的ショット学習
- Authors: Paheli Bhattacharya, Rishabh Gupta,
- Abstract要約: Selective Shot Learning(SSL)の最先端のアプローチには、トークンベースのメソッドと埋め込みベースのメソッドが含まれる。
本稿では,実例選択にエンティティ情報を利用するSSL_nerを提案する。
2つのデータセットにわたる最先端メソッドに対するSSL_nerの有効性を示す。
- 参考スコア(独自算出の注目度): 4.773934813915903
- License:
- Abstract: Code explanation plays a crucial role in the software engineering domain, aiding developers in grasping code functionality efficiently. Recent work shows that the performance of LLMs for code explanation improves in a few-shot setting, especially when the few-shot examples are selected intelligently. State-of-the-art approaches for such Selective Shot Learning (SSL) include token-based and embedding-based methods. However, these SSL approaches have been evaluated on proprietary LLMs, without much exploration on open-source Code-LLMs. Additionally, these methods lack consideration for programming language syntax. To bridge these gaps, we present a comparative study and propose a novel SSL method (SSL_ner) that utilizes entity information for few-shot example selection. We present several insights and show the effectiveness of SSL_ner approach over state-of-the-art methods across two datasets. To the best of our knowledge, this is the first systematic benchmarking of open-source Code-LLMs while assessing the performances of the various few-shot examples selection approaches for the code explanation task.
- Abstract(参考訳): コード説明はソフトウェアエンジニアリング領域において重要な役割を担い、開発者のコード機能の効率的な把握を支援する。
最近の研究によると、コード説明のためのLLMの性能は、特に少数の例がインテリジェントに選択された場合、数ショット設定で改善されている。
Selective Shot Learning (SSL)のような最先端のアプローチには、トークンベースおよび埋め込みベースの方法が含まれる。
しかし、これらのSSLアプローチは、オープンソースのCode-LLMをあまり調査することなく、プロプライエタリなLLMで評価されている。
さらに、これらのメソッドはプログラミング言語の構文を考慮していない。
これらのギャップを埋めるため、我々はSSL_ner(SSL_ner)という新しい手法を提案する。
2つのデータセットをまたいだ最先端手法に対するSSL_nerアプローチの有効性を示す。
私たちの知る限り、これはオープンソースのCode-LLMの最初の体系的なベンチマークであり、コード説明タスクの様々なサンプル選択アプローチのパフォーマンスを評価します。
関連論文リスト
- Studying and Benchmarking Large Language Models For Log Level Suggestion [49.176736212364496]
大規模言語モデル(LLM)は、様々な領域で研究の焦点となっている。
本稿では,12個のオープンソースLCMのログレベル提案における性能に及ぼす特性と学習パラダイムの影響について検討する。
論文 参考訳(メタデータ) (2024-10-11T03:52:17Z) - In-Context Learning with Reinforcement Learning for Incomplete Utterance Rewriting [33.89176174108559]
大規模言語モデル(LLM)の文脈内学習は、いくつかの例で拡張された命令に基づいて予測を行う。
ICLの既存の例選択方法はスパースまたは高密度レトリバーを使用し、有効性能を導出する。
本稿では,言語モデルセレクタとLLMジェネレータから構成される実例選択(RLS)のためのポリシーベース強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-23T12:32:12Z) - Large Language Models Know What Makes Exemplary Contexts [42.90814615222177]
In-context Learning (ICL) は、Large Language Model (LLM) の発展において重要な機能であることが証明されている。
本稿では,LLMのための統合フレームワークを提案する。このフレームワークにより,影響力のあるインコンテキストのサンプルを自己選択してコンテキストを構成することができる。
論文 参考訳(メタデータ) (2024-08-14T12:32:41Z) - C-ICL: Contrastive In-context Learning for Information Extraction [54.39470114243744]
c-ICLは、正しいサンプル構築と間違ったサンプル構築の両方を活用して、コンテキスト内学習のデモを作成する、新しい数ショット技術である。
各種データセットに対する実験により,c-ICLは従来の数発のインコンテキスト学習法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-02-17T11:28:08Z) - A Thorough Examination of Decoding Methods in the Era of LLMs [72.65956436513241]
復号法は、次世代の予測器から実用的なタスク解決器に言語モデルを変換する上で、必須の役割を果たす。
本稿では,大規模言語モデルの文脈における様々な復号法を包括的かつ多面的に分析する。
その結果,復号法の性能は特にタスク依存的であり,アライメント,モデルサイズ,量子化などの要因に影響されていることが明らかとなった。
論文 参考訳(メタデータ) (2024-02-10T11:14:53Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Automatic Smart Contract Comment Generation via Large Language Models
and In-Context Learning [11.52122354673779]
本研究では,大規模言語モデル(LLM)と文脈内学習に基づくSCCLLMのアプローチを提案する。
具体的には、デモ選択フェーズにおいて、SCCLLMは歴史的コーパスからトップkコードスニペットを検索する。
コンテキスト内学習フェーズでは、SCCLLMは検索したコードスニペットをデモとして利用する。
論文 参考訳(メタデータ) (2023-11-17T08:31:09Z) - Active Learning Principles for In-Context Learning with Large Language
Models [65.09970281795769]
本稿では,アクティブ・ラーニング・アルゴリズムが,文脈内学習における効果的な実演選択手法としてどのように機能するかを検討する。
ALによる文脈内サンプル選択は,不確実性の低い高品質な事例を優先し,試験例と類似性を有することを示す。
論文 参考訳(メタデータ) (2023-05-23T17:16:04Z) - Iterative Forward Tuning Boosts In-Context Learning in Language Models [88.25013390669845]
本研究では,大規模言語モデル(LLM)における文脈内学習を促進する新しい2段階フレームワークを提案する。
具体的には、当社のフレームワークでは、ICLプロセスをDeep-ThinkingとTest Stageの2つの別々のステージに分類しています。
ディープシンキング段階にはユニークな注意機構、すなわち反復的な注意強化機構が組み込まれており、複数の情報の蓄積を可能にしている。
論文 参考訳(メタデータ) (2023-05-22T13:18:17Z) - Industry Scale Semi-Supervised Learning for Natural Language
Understanding [14.844450283047234]
本論文では,学生教師フレームワークに基づく半教師学習(SSL)パイプラインについて述べる。
実運用におけるSSLコンテキストにおけるラベルなしデータの使用に関する2つの質問について検討する。
Pseudo-Label (PL), Knowledge Distillation (KD), Virtual Adversarial Training (VAT), Cross-View Training (CVT)の4つのSSL技術を比較します。
論文 参考訳(メタデータ) (2021-03-29T18:24:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。