論文の概要: Analyzing the Resource Utilization of Lambda Functions on Mobile Devices: Case Studies on Kotlin and Swift
- arxiv url: http://arxiv.org/abs/2502.07809v1
- Date: Fri, 07 Feb 2025 20:26:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-13 13:50:49.365822
- Title: Analyzing the Resource Utilization of Lambda Functions on Mobile Devices: Case Studies on Kotlin and Swift
- Title(参考訳): モバイルデバイスにおけるLambda関数のリソース利用の分析: KotlinとSwiftのケーススタディ
- Authors: Chibundom U. Ejimuda, Gaston Longhitano, Reza Rawassizadeh,
- Abstract要約: スマートフォンの電力使用量が少なくても、かなりの省エネに繋がる可能性がある。
本研究では,モバイルプログラミングにおけるLambda関数が資源消費に与える影響について検討する。
- 参考スコア(独自算出の注目度): 0.20482269513546458
- License:
- Abstract: With billions of smartphones in use globally, the daily time spent on these devices contributes significantly to overall electricity consumption. Given this scale, even minor reductions in smartphone power use could result in substantial energy savings. This study explores the impact of Lambda functions on resource consumption in mobile programming. While Lambda functions are known for enhancing code readability and conciseness, their use does not add to the functional capabilities of a programming language. Our research investigates the implications of using Lambda functions in terms of battery utilization, memory usage, and execution time compared to equivalent code structures without Lambda functions. Our findings reveal that Lambda functions impose a considerable resource overhead on mobile devices without offering additional functionalities.
- Abstract(参考訳): 全世界で何十億ものスマートフォンが使われている今、これらのデバイスに費やされた日々の時間は、全体の電力消費に大きく貢献している。
このスケールを考えると、スマートフォンの電力使用量が少なくてもかなりの省エネに繋がる可能性がある。
本研究では,モバイルプログラミングにおけるLambda関数が資源消費に与える影響について検討する。
Lambda関数は、コードの可読性と簡潔性を高めることで知られているが、その使用はプログラミング言語の機能的機能を強化するものではない。
本研究では,Lambda関数を使用しない等価コード構造と比較して,バッテリ使用量,メモリ使用量,実行時間の観点からLambda関数を用いることの意味について検討した。
以上の結果から,Lambda関数は機能追加を伴わずに,モバイルデバイスにかなりのリソースオーバーヘッドを課すことが明らかとなった。
関連論文リスト
- Adaptive Tool Use in Large Language Models with Meta-Cognition Trigger [49.81945268343162]
我々は,外部ツール利用のための適応型意思決定戦略であるMeCoを提案する。
MeCoは表現空間の高レベル認知信号をキャプチャし、ツールを呼び出すタイミングを指示する。
実験の結果,MeCoはLSMの内部認知信号を正確に検出し,ツール使用による意思決定を大幅に改善することがわかった。
論文 参考訳(メタデータ) (2025-02-18T15:45:01Z) - ComplexFuncBench: Exploring Multi-Step and Constrained Function Calling under Long-Context Scenario [17.494787282066866]
実世界の5つのシナリオにまたがる複雑な関数呼び出しのベンチマークである ComplexFuncBench を紹介する。
既存のベンチマークと比較すると、complexFuncBenchはマルチステップおよび制約付き関数呼び出しを含んでいる。
複雑な関数呼び出しタスクを定量的に評価するための自動フレームワークである ComplexEval を提案する。
論文 参考訳(メタデータ) (2025-01-17T11:41:53Z) - Less is More: Optimizing Function Calling for LLM Execution on Edge Devices [0.44784055850794474]
大きな言語モデル(LLM)は、複雑な入力を処理したり、複数のツールを効果的に管理できないため、エッジでの関数呼び出しに苦労する。
動的ツール選択のためのファインチューニングフリー関数呼び出し方式であるLess-is-Moreを紹介する。
我々のアプローチは、LLMで利用可能なツールの数を選択的に削減することで、エッジデバイス上での機能呼び出し性能、実行時間、電力効率を大幅に改善する、というキーインサイトに基づいている。
論文 参考訳(メタデータ) (2024-11-23T00:51:09Z) - Hammer: Robust Function-Calling for On-Device Language Models via Function Masking [26.495781685810044]
Hammerはデバイス上での関数呼び出し用に特別に設計されたファンデーションモデルの新しいファミリーである。
我々の経験的評価は、ハマーがより大きなモデルを上回るだけでなく、様々なベンチマークで堅牢な一般化を示すことを示している。
論文 参考訳(メタデータ) (2024-10-06T18:57:46Z) - ReLU$^2$ Wins: Discovering Efficient Activation Functions for Sparse
LLMs [91.31204876440765]
本稿では、ニューロンの出力の等級と調整された等級しきい値によってニューロンの活性化を定義する一般的な方法を提案する。
スパース計算における最も効率的なアクティベーション関数を見つけるために,本手法を提案する。
我々は、ReLU、SwiGLU、ReGLU、ReLU$2$といった異なるアクティベーション機能を利用したLCMの徹底的な実験を行う。
論文 参考訳(メタデータ) (2024-02-06T08:45:51Z) - An LLM Compiler for Parallel Function Calling [68.04566807806071]
我々は,複数の関数呼び出しを効率的にオーケストレーションするために並列に関数を実行するLLMCompilerを紹介する。
ReActと比較して、一貫したレイテンシの高速化が3.7倍、コストの削減が6.7倍、精度が9%向上している。
論文 参考訳(メタデータ) (2023-12-07T18:32:04Z) - ToolLLM: Facilitating Large Language Models to Master 16000+ Real-world
APIs [104.37772295581088]
オープンソースの大規模言語モデル(LLM)、例えばLLaMAは、ツール使用能力に大きく制限されている。
データ構築、モデルトレーニング、評価を含む汎用ツールであるToolLLMを紹介する。
ツール使用のためのインストラクションチューニングフレームワークであるToolBenchを,ChatGPTを使って自動構築する。
論文 参考訳(メタデータ) (2023-07-31T15:56:53Z) - LongCoder: A Long-Range Pre-trained Language Model for Code Completion [56.813974784131624]
LongCoderは自己アテンションにスライディングウィンドウ機構を採用し、グローバルアクセス可能なトークンを2種類導入している。
ブリッジトークンは入力シーケンス全体を通して挿入され、ローカル情報を集約し、グローバルな相互作用を促進する。
メモリトークンは、後で呼び出され、記憶する必要がある重要なステートメントをハイライトするために含まれます。
論文 参考訳(メタデータ) (2023-06-26T17:59:24Z) - LambdaBeam: Neural Program Search with Higher-Order Functions and
Lambdas [44.919087759546635]
我々はLambdaBeamと呼ばれる検索アルゴリズムを設計し、特定のDSL内で操作を構成する任意の関数を構築できる。
我々は、探索中に構築する合成を選択するためにニューラルネットワークを訓練し、それらを高次関数に引数として渡す。
論文 参考訳(メタデータ) (2023-06-03T08:24:53Z) - LambdaNetworks: Modeling Long-Range Interactions Without Attention [3.459216990820884]
入力と構造化されたコンテキスト情報間の長距離相互作用をキャプチャするためのレイヤ - 自己意識に代わるフレームワーク - を提示する。
ラムダ層は、利用可能なコンテキストを線形関数(COCO)に変換することで、そのような相互作用を捕捉する。
コンテンツと位置ベースのインタラクションの両方をモデル化し、画像などの大規模な構造化された入力に適用します。
論文 参考訳(メタデータ) (2021-02-17T06:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。