論文の概要: A Systematic Literature Review on Neural Code Translation
- arxiv url: http://arxiv.org/abs/2505.07425v1
- Date: Mon, 12 May 2025 10:30:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.349114
- Title: A Systematic Literature Review on Neural Code Translation
- Title(参考訳): ニューラルコード翻訳に関する体系的文献レビュー
- Authors: Xiang Chen, Jiacheng Xue, Xiaofei Xie, Caokai Liang, Xiaolin Ju,
- Abstract要約: コード翻訳は、あるプログラミング言語から別のプログラミング言語にコードを自動的に変換することを目的としている。
この分野で重要な技術や課題をまとめた総合的な体系的な文献レビューは行われていない。
我々の分析は、現在の研究動向を明らかにし、未解決の課題を特定し、今後の研究の方向性を示す。
- 参考スコア(独自算出の注目度): 18.369488859512515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Code translation aims to convert code from one programming language to another automatically. It is motivated by the need for multi-language software development and legacy system migration. In recent years, neural code translation has gained significant attention, driven by rapid advancements in deep learning and large language models. Researchers have proposed various techniques to improve neural code translation quality. However, to the best of our knowledge, no comprehensive systematic literature review has been conducted to summarize the key techniques and challenges in this field. To fill this research gap, we collected 57 primary studies covering the period 2020~2025 on neural code translation. These studies are analyzed from seven key perspectives: task characteristics, data preprocessing, code modeling, model construction, post-processing, evaluation subjects, and evaluation metrics. Our analysis reveals current research trends, identifies unresolved challenges, and shows potential directions for future work. These findings can provide valuable insights for both researchers and practitioners in the field of neural code translation.
- Abstract(参考訳): コード翻訳は、あるプログラミング言語から別のプログラミング言語にコードを自動的に変換することを目的としている。
それは多言語ソフトウェア開発とレガシーシステム移行の必要性によって動機付けられている。
近年、ディープラーニングと大規模言語モデルの急速な進歩によって、ニューラルコード翻訳が注目されている。
研究者は、ニューラルネットワーク翻訳の品質を改善するための様々な技術を提案している。
しかし,我々の知る限りでは,この分野における重要な技術や課題を要約する総合的な体系的な文献レビューは行われていない。
この研究ギャップを埋めるために、2020年から2025年までの神経コード翻訳に関する57の一次研究を収集した。
これらの研究は、タスク特性、データ前処理、コードモデリング、モデル構築、後処理、評価対象、評価指標の7つの重要な視点から分析される。
我々の分析は、現在の研究動向を明らかにし、未解決の課題を特定し、今後の研究の方向性を示す。
これらの発見は、ニューラルネットワーク翻訳の分野における研究者と実践者の両方に貴重な洞察を与えることができる。
関連論文リスト
- Interpreting Multilingual and Document-Length Sensitive Relevance Computations in Neural Retrieval Models through Axiomatic Causal Interventions [0.0]
本研究は,ニューラル検索モデルにおけるリバースエンジニアリング関連性のための軸的因果介入の分析と拡張である。
従来の論文から重要な実験を再現し、クエリ項に関する情報がモデルエンコーディングで取得されることを確認した。
この作業は、スペイン語と中国語のデータセットにアクティベーションパッチを適用し、文書の長さの情報もモデルにエンコードされているかどうかを調べることで拡張する。
論文 参考訳(メタデータ) (2025-05-04T15:30:45Z) - Recent advancements in computational morphology : A comprehensive survey [0.11606731918609076]
計算形態学は単語レベルで言語処理を扱う。
形態的境界検出、補間、形態的特徴タグ付け、形態的再考等。
論文 参考訳(メタデータ) (2024-06-08T10:07:33Z) - Understanding Cross-Lingual Alignment -- A Survey [52.572071017877704]
言語間アライメントは多言語言語モデルにおける言語間の表現の有意義な類似性である。
本研究は,言語間アライメントの向上,手法の分類,分野全体からの洞察の要約といった手法の文献を調査する。
論文 参考訳(メタデータ) (2024-04-09T11:39:53Z) - Mitigating Data Scarcity for Large Language Models [7.259279261659759]
近年,事前学習型ニューラルネットワークモデル (PNLM) が嵐による自然言語処理の分野に進出している。
データ不足は、医学などの専門分野や、AI研究によって調査されていない低リソース言語でよく見られる。
この論文では、データ強化とニューラルアンサンブル学習技術を用いて、データの不足を軽減することに焦点を当てる。
論文 参考訳(メタデータ) (2023-02-03T15:17:53Z) - Revisiting Classifier: Transferring Vision-Language Models for Video
Recognition [102.93524173258487]
ダウンストリームタスクのためのタスク非依存の深層モデルから知識を伝達することは、コンピュータビジョン研究において重要なトピックである。
本研究では,映像分類作業における知識の伝達に着目した。
予測された言語モデルを用いて、効率的な翻訳学習のための適切なセマンティックターゲットを生成する。
論文 参考訳(メタデータ) (2022-07-04T10:00:47Z) - Neural Fields in Visual Computing and Beyond [54.950885364735804]
機械学習の最近の進歩は、座標ベースニューラルネットワークを用いた視覚コンピューティング問題の解決への関心が高まっている。
ニューラルネットワークは、3D形状と画像の合成、人体のアニメーション、3D再構成、ポーズ推定に成功している。
本報告は、文脈、数学的基礎、および、ニューラルネットワークに関する文献の広範なレビューを提供する。
論文 参考訳(メタデータ) (2021-11-22T18:57:51Z) - Deep Learning for Text Style Transfer: A Survey [71.8870854396927]
テキストスタイル転送は、生成したテキストの特定の属性を制御することを目的として、自然言語生成において重要なタスクである。
2017年の最初のニューラルテキストスタイル転送作業以降,100以上の代表的な記事を対象とした,ニューラルテキストスタイル転送の研究の体系的な調査を行う。
タスクの定式化、既存のデータセットとサブタスク、評価、並列データと非並列データの存在下での豊富な方法論について論じる。
論文 参考訳(メタデータ) (2020-11-01T04:04:43Z) - Neural Language Generation: Formulation, Methods, and Evaluation [13.62873478165553]
ニューラルネットワークに基づく生成モデリングの最近の進歩は、人間とシームレスに会話できるコンピュータシステムの実現への期待を再燃させた。
大規模データセットでトレーニングされた高容量ディープラーニングモデルは、明示的な監視信号の欠如にもかかわらず、データのパターンを学習する非並列的な能力を示している。
これらの生成モデルが生成するテキストの品質を評価する標準的な方法は存在しないため、フィールドの進行に深刻なボトルネックが生じる。
論文 参考訳(メタデータ) (2020-07-31T00:08:28Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z) - Sentence Level Human Translation Quality Estimation with Attention-based
Neural Networks [0.30458514384586394]
本稿では,人間の翻訳品質の自動推定にDeep Learning法を用いる方法について検討する。
大規模な人間の注釈付きデータセットの実証結果は、ニューラルモデルが特徴に基づく手法を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2020-03-13T16:57:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。