論文の概要: A Pilot Study on LLM-Based Agentic Translation from Android to iOS: Pitfalls and Insights
- arxiv url: http://arxiv.org/abs/2507.16037v1
- Date: Mon, 21 Jul 2025 20:11:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:13.871815
- Title: A Pilot Study on LLM-Based Agentic Translation from Android to iOS: Pitfalls and Insights
- Title(参考訳): AndroidからiOSへのLDMベースのエージェント翻訳に関するパイロット研究:落とし穴と洞察
- Authors: Zhili Zeng, Kimya Khakzad Shahandashti, Alvine Boaye Belle, Song Wang, Zhen Ming, Jiang,
- Abstract要約: 大規模言語モデル(LLM)は、最近、様々な粒度のコード翻訳を強化するために利用された。
本研究は,モバイルアプリケーション翻訳におけるLSMに基づくエージェントアプローチの評価により,このギャップを埋めることを目的とする。
我々は,依存関係,仕様,プログラム構造,プログラム制御フローを考慮したエージェントの連鎖を開発した。
- 参考スコア(独自算出の注目度): 27.632954643254884
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid advancement of mobile applications has led to a significant demand for cross-platform compatibility, particularly between the Android and iOS platforms. Traditional approaches to mobile application translation often rely on manual intervention or rule-based systems, which are labor-intensive and time-consuming. While recent advancements in machine learning have introduced automated methods, they often lack contextual understanding and adaptability, resulting in suboptimal translations. Large Language Models (LLMs) were recently leveraged to enhance code translation at different granularities, including the method, class, and repository levels. Researchers have investigated common errors, limitations, and potential strategies to improve these tasks. However, LLM-based application translation across different platforms, such as migrating mobile applications between Android and iOS or adapting software across diverse frameworks, remains underexplored. Understanding the performance, strengths, and limitations of LLMs in cross-platform application translation is critical for advancing software engineering automation. This study aims to fill this gap by evaluating LLM-based agentic approaches for mobile application translation, identifying key failure points, and proposing guidelines to improve translation performance. We developed a chain of agents that account for dependencies, specifications, program structure, and program control flow when translating applications from Android to iOS. To evaluate the performance, we manually examined the translated code for syntactic correctness, semantic accuracy, and functional completeness. For translation failures, we further conducted a detailed root cause analysis to understand the underlying limitations of the agentic translation process and identify opportunities for improvement.
- Abstract(参考訳): モバイルアプリケーションの急速な進歩は、特にAndroidとiOSプラットフォームの間で、クロスプラットフォームの互換性に対する大きな需要をもたらしている。
従来のモバイルアプリケーション翻訳のアプローチは、労働集約的で時間を要する手作業の介入やルールベースのシステムに依存していることが多い。
機械学習の最近の進歩は自動化された手法を導入しているが、文脈的理解や適応性に欠けることが多く、結果として準最適翻訳が生まれている。
大規模言語モデル(LLM)は、最近、メソッド、クラス、リポジトリレベルなど、さまざまな粒度のコード翻訳を強化するために利用されました。
研究者は、これらのタスクを改善するための一般的なエラー、制限、潜在的な戦略を調査した。
しかし、AndroidとiOS間でのモバイルアプリケーションの移行や、さまざまなフレームワーク間でのソフトウェア適応など、さまざまなプラットフォーム間でのLLMベースのアプリケーション翻訳は、まだ未定である。
クロスプラットフォームアプリケーション翻訳におけるLLMのパフォーマンス、強み、限界を理解することは、ソフトウェアエンジニアリングの自動化を進める上で非常に重要です。
本研究の目的は,モバイルアプリケーション翻訳におけるLLMに基づくエージェントアプローチの評価,キー障害点の同定,翻訳性能向上のためのガイドラインの提案により,このギャップを埋めることである。
我々は,AndroidからiOSへのアプリケーションを翻訳する際に,依存関係,仕様,プログラム構造,プログラム制御フローを考慮に入れたエージェントの連鎖を開発した。
性能を評価するため,構文的正確性,意味的正確性,機能的完全性について手作業で検討した。
翻訳障害について,エージェント翻訳プロセスの根本的限界を理解し,改善の機会を特定するために,詳細な根本原因分析を行った。
関連論文リスト
- Function-to-Style Guidance of LLMs for Code Translation [59.487054943812836]
コード翻訳における大規模言語モデルの性能向上を目的として,F2STransという関数型案内パラダイムを提案する。
提案手法は,(1)高品質なソースターゲットコードペアを用いた翻訳精度を最適化する機能学習という2つの重要な段階から構成される。
我々は,最新のソースコード,広範なテストケース,手動で注釈付き接頭辞翻訳を含む新しいコード翻訳ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-07-15T08:25:02Z) - Beyond Syntax: Action Semantics Learning for App Agents [60.56331102288794]
アクションセマンティックス学習(ASL、Action Semantics Learning)は、学習目的が真理行動の意味を捉える学習フレームワークである。
ASLは既存のメソッドよりもApp Agentの精度と一般化を大幅に改善する。
論文 参考訳(メタデータ) (2025-06-21T12:08:19Z) - Collaboration is all you need: LLM Assisted Safe Code Translation [4.3764649156831235]
UniTranslatorは、複数のコンパクトLLM間の協調的な取り組みとしてコード翻訳を再想像するフレームワークである。
特殊なエージェントのインタラクションを編成することによって、UniTranslatorは、より大きなモノリシックモデルに匹敵する精度と効率のレベルを達成する。
論文 参考訳(メタデータ) (2025-03-14T09:42:07Z) - Exploring Large Language Models for Translating Romanian Computational Problems into English [0.0]
本研究では,ロバストな大規模言語モデル(LLM)が,十分に構造化されたプロンプトを与えられた場合,あまり一般的でない言語を翻訳する際に,その性能を維持あるいは向上できることを示す。
OpenRoLLM, Llama 3.1 8B, Llama 3.2 3B, GPT-4o など, 複数の LLM の翻訳手法について検討した。
論文 参考訳(メタデータ) (2025-01-09T22:17:44Z) - Training of Scaffolded Language Models with Language Supervision: A Survey [62.59629932720519]
本調査は,戦後のLM周辺における新規構造物の設計と最適化に関する文献を整理した。
本稿では,この階層構造を足場型LMと呼び,ツールを用いた多段階プロセスに統合されたLMに焦点を当てる。
論文 参考訳(メタデータ) (2024-10-21T18:06:25Z) - TRANSAGENT: An LLM-Based Multi-Agent System for Code Translation [16.46292795782835]
コード翻訳は、ソフトウェアマイグレーション、システムアブレーション、クロスプラットフォーム開発に不可欠である。
従来のルールベースのメソッドは手書きのルールに依存している。
最近では、LLM(Large Language Models)の進歩により、学習ベースのコード翻訳がさらに強化されている。
本稿では,構文誤りや意味的誤りを解消し,LLMに基づくコード翻訳を強化した新しいマルチエージェントシステムTransagENTを提案する。
論文 参考訳(メタデータ) (2024-09-30T02:53:03Z) - The Power of Question Translation Training in Multilingual Reasoning: Broadened Scope and Deepened Insights [108.40766216456413]
大規模言語モデルの英語と非英語のパフォーマンスのギャップを埋めるための質問アライメントフレームワークを提案する。
実験結果から、さまざまな推論シナリオ、モデルファミリー、サイズにわたって、多言語のパフォーマンスを向上できることが示された。
我々は、表現空間、生成された応答とデータスケールを分析し、質問翻訳訓練がLLM内の言語アライメントをどのように強化するかを明らかにする。
論文 参考訳(メタデータ) (2024-05-02T14:49:50Z) - Exploring and Unleashing the Power of Large Language Models in Automated Code Translation [40.25727029618665]
本稿では,自動翻訳タスクのための多種多様なLLMと学習ベーストランスパイラについて検討する。
UniTrans は、様々な LLM に適用可能な統一コード翻訳フレームワークである。
最近の3つのLLMはUniTransでテストされており、いずれも大幅に改善されている。
論文 参考訳(メタデータ) (2024-04-23T00:49:46Z) - Building Accurate Translation-Tailored LLMs with Language Aware Instruction Tuning [57.323716555996114]
オフターゲット翻訳は、特に低リソース言語では未解決の問題である。
最近の研究は、翻訳命令の機能を強調するために高度なプロンプト戦略を設計するか、LLMの文脈内学習能力を活用している。
本研究では,LLMの命令追従能力(特に翻訳方向)を向上させるために,2段階の微調整アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-03-21T13:47:40Z) - Machine Translation with Large Language Models: Prompt Engineering for
Persian, English, and Russian Directions [0.0]
生成型大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて、例外的な習熟性を示している。
我々は,ペルシャ語,英語,ロシア語の言語間組み合わせに着目した2つの普及促進手法とその組み合わせについて調査を行った。
論文 参考訳(メタデータ) (2024-01-16T15:16:34Z) - DIALIGHT: Lightweight Multilingual Development and Evaluation of
Task-Oriented Dialogue Systems with Large Language Models [76.79929883963275]
DIALIGHTは多言語タスク指向対話(ToD)システムの開発と評価のためのツールキットである。
ローカル発話レベルとグローバル対話レベルの両方において、人間のきめ細かい評価のためのセキュアでユーザフレンドリーなWebインターフェースを備えている。
評価の結果, PLMの微調整により精度とコヒーレンスが向上する一方, LLMベースのシステムは多様で類似した応答を生成するのに優れていた。
論文 参考訳(メタデータ) (2024-01-04T11:27:48Z) - Cross-lingual Transferring of Pre-trained Contextualized Language Models [73.97131976850424]
本稿では,PRLMのための新しい言語間モデル転送フレームワークTreLMを提案する。
シンボルの順序と言語間のシーケンス長の差に対処するため,中間的なTRILayer構造を提案する。
提案手法は,スクラッチから学習した言語モデルに対して,性能と効率の両面で,限られたデータで著しく優れることを示す。
論文 参考訳(メタデータ) (2021-07-27T06:51:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。