論文の概要: Democratizing AI Development: Local LLM Deployment for India's Developer Ecosystem in the Era of Tokenized APIs
- arxiv url: http://arxiv.org/abs/2508.16684v1
- Date: Thu, 21 Aug 2025 16:56:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.12037
- Title: Democratizing AI Development: Local LLM Deployment for India's Developer Ecosystem in the Era of Tokenized APIs
- Title(参考訳): AI開発を民主化する - トークン化されたAPIの時代におけるインドの開発者エコシステムのためのローカルLLMデプロイメント
- Authors: Vikranth Udandarao, Nipun Misra,
- Abstract要約: インドの開発者コミュニティは、商用のLarge Language Model (LLM) APIによる持続的な実験と学習において、大きな障壁に直面している。
本研究は,Ollama を用いたローカル LLM デプロイメントを,開発者中心のアプリケーションを対象とした商用クラウドベースのサービスに代わるものとして実証的に評価する。
ローカルデプロイメントは、商用ソリューションに比べて33%のコスト削減を図りながら、開発や実験においてはるかに大きなハンズオンを可能にする。
- 参考スコア(独自算出の注目度): 6.101366026333068
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: India's developer community faces significant barriers to sustained experimentation and learning with commercial Large Language Model (LLM) APIs, primarily due to economic and infrastructural constraints. This study empirically evaluates local LLM deployment using Ollama as an alternative to commercial cloud-based services for developer-focused applications. Through a mixed-methods analysis involving 180 Indian developers, students, and AI enthusiasts, we find that local deployment enables substantially greater hands-on development and experimentation, while reducing costs by 33% compared to commercial solutions. Developers using local LLMs completed over twice as many experimental iterations and reported deeper understanding of advanced AI architectures. Our results highlight local deployment as a critical enabler for inclusive and accessible AI development, demonstrating how technological accessibility can enhance learning outcomes and innovation capacity in resource-constrained environments.
- Abstract(参考訳): インドの開発者コミュニティは、主に経済的およびインフラ的制約のために、商用のLarge Language Model (LLM) APIによる持続的な実験と学習において、大きな障壁に直面している。
本研究は,Ollama を用いたローカル LLM デプロイメントを,開発者中心のアプリケーションを対象とした商用クラウドベースのサービスに代わるものとして実証的に評価する。
インドの180人の開発者、学生、AI愛好家による混合メソッド分析を通じて、ローカルデプロイメントは、商用ソリューションと比較してコストを33%削減しつつ、開発と実験を大幅に向上させることができることがわかった。
ローカルLLMを使用する開発者は、多くの実験的なイテレーションを完了し、高度なAIアーキテクチャのより深い理解を報告した。
我々の研究結果は,AI開発を包括的かつアクセス可能なものにするための重要な手段として,ローカルデプロイメントに注目し,資源制約のある環境において,技術アクセシビリティが学習成果とイノベーション能力をどのように向上させるかを実証した。
関連論文リスト
- MLE-Dojo: Interactive Environments for Empowering LLM Agents in Machine Learning Engineering [57.156093929365255]
自律型大規模言語モデル(LLM)エージェントを体系的に強化し、評価し、改善するためのガイムスタイルのフレームワーク。
MLE-Dojoは、現実的なエンジニアリングシナリオを反映した、多様でオープンなMLEタスクを慎重にキュレートする。
完全に実行可能な環境は、教師付き微調整と強化学習の両方を通して包括的なエージェントトレーニングをサポートする。
論文 参考訳(メタデータ) (2025-05-12T17:35:43Z) - Edge-Cloud Collaborative Computing on Distributed Intelligence and Model Optimization: A Survey [58.50944604905037]
エッジクラウドコラボレーティブコンピューティング(ECCC)は、現代のインテリジェントアプリケーションの計算要求に対処するための重要なパラダイムとして登場した。
AIの最近の進歩、特にディープラーニングと大規模言語モデル(LLM)は、これらの分散システムの能力を劇的に向上させてきた。
この調査は、基本的なアーキテクチャ、技術の実現、新しいアプリケーションに関する構造化されたチュートリアルを提供する。
論文 参考訳(メタデータ) (2025-05-03T13:55:38Z) - LLMs in Mobile Apps: Practices, Challenges, and Opportunities [4.104646810514711]
AI技術の統合は、ソフトウェア開発でますます人気が高まっている。
大規模言語モデル(LLM)と生成AIの台頭により、開発者は、クローズドソースプロバイダから豊富な高品質のオープンソースモデルとAPIにアクセスできるようになる。
論文 参考訳(メタデータ) (2025-02-21T19:53:43Z) - Investigating the Role of Cultural Values in Adopting Large Language Models for Software Engineering [17.818350887316004]
本研究は,ソフトウェア開発における大規模言語モデル(LLM)導入における専門家の文化的価値の役割に焦点を当てた。
LLM導入の主要因は習慣やパフォーマンスの期待度であるが,文化的価値はそれほど緩やかではない。
論文 参考訳(メタデータ) (2024-09-08T10:58:45Z) - Large Language Model as a Catalyst: A Paradigm Shift in Base Station Siting Optimization [62.16747639440893]
大規模言語モデル(LLM)とその関連技術は、特に迅速な工学とエージェント工学の領域において進歩している。
提案するフレームワークは、検索拡張生成(RAG)を組み込んで、ドメイン固有の知識を取得してソリューションを生成するシステムの能力を高める。
論文 参考訳(メタデータ) (2024-08-07T08:43:32Z) - Free to play: UN Trade and Development's experience with developing its own open-source Retrieval Augmented Generation Large Language Model application [0.0]
UNCTADは、独自のオープンソースのRetrieval Augmented Generation (RAG) LLMアプリケーションを探索、開発している。
RAGは、大規模言語モデルを組織のドメインや作業に意識し、より有用なものにします。
アプリを生成するために開発された3つのライブラリ、ドキュメント処理と統計解析用のnlp_pipeline、ローカルなRAG LLMを実行する local_rag_llm、ユーザインターフェース用の streamlit_rag は、DockerfilesでPyPIとGitHubで公開されている。
論文 参考訳(メタデータ) (2024-06-18T14:23:54Z) - CulturalTeaming: AI-Assisted Interactive Red-Teaming for Challenging LLMs' (Lack of) Multicultural Knowledge [69.82940934994333]
我々は、人間とAIのコラボレーションを活用して、挑戦的な評価データセットを構築するインタラクティブなレッドチームシステムであるCulturalTeamingを紹介する。
我々の研究は、CulturalTeamingの様々なAI支援モードが、文化的な質問の作成においてアノテータを支援することを明らかにした。
CULTURALBENCH-V0.1は、ユーザのリピートの試みにより、コンパクトだが高品質な評価データセットである。
論文 参考訳(メタデータ) (2024-04-10T00:25:09Z) - Is open source software culture enough to make AI a common ? [0.0]
言語モデル(LM)は人工知能(AI)の分野でますます普及している
この疑問は、ユーザコミュニティによって管理され、維持される共通のリソースであるかどうかというものである。
LMを作成するのに必要なデータとリソースをコモンズとして扱うことの潜在的な利点を強調します。
論文 参考訳(メタデータ) (2024-03-19T14:43:52Z) - Uncertainty Estimation in Multi-Agent Distributed Learning [0.0]
KDT NEUROKIT2Eプロジェクトは、エッジデバイス上のAIアプリケーションを容易にするための、新たなオープンソースフレームワークを確立することを目的としている。
本研究は,エッジネットワーク対応エージェントが分散環境における協調学習に携わることを可能にするメカニズムと方法論に焦点をあてる。
論文 参考訳(メタデータ) (2023-11-22T12:48:20Z) - AgentBench: Evaluating LLMs as Agents [88.45506148281379]
大規模言語モデル(LLM)は、従来のNLPタスクを超えた現実的な実用的ミッションをターゲットとして、ますます賢く自律的になってきています。
我々は,現在8つの異なる環境からなるベンチマークであるAgentBenchを紹介し,LLM-as-Agentの推論と意思決定能力を評価する。
論文 参考訳(メタデータ) (2023-08-07T16:08:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。