論文の概要: LLM Chatbot-Creation Approaches
- arxiv url: http://arxiv.org/abs/2509.13326v1
- Date: Thu, 28 Aug 2025 02:37:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-21 06:05:45.81295
- Title: LLM Chatbot-Creation Approaches
- Title(参考訳): LLM Chatbot-Creation Approachs
- Authors: Hemil Mehta, Tanvi Raut, Kohav Yadav, Edward F. Gehringer,
- Abstract要約: 本研究では、AnythingLLMやBotpressのようなローコードプラットフォームと、LangChain、FAISS、FastAPIを使ったカスタムコードソリューションの2つの開発アプローチを比較した。
ローコードプラットフォームは迅速なプロトタイピングを可能にする一方で、カスタマイズとスケーリングの制限に直面している。
- 参考スコア(独自算出の注目度): 0.18374319565577157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This full research-to-practice paper explores approaches for developing course chatbots by comparing low-code platforms and custom-coded solutions in educational contexts. With the rise of Large Language Models (LLMs) like GPT-4 and LLaMA, LLM-based chatbots are being integrated into teaching workflows to automate tasks, provide assistance, and offer scalable support. However, selecting the optimal development strategy requires balancing ease of use, customization, data privacy, and scalability. This study compares two development approaches: low-code platforms like AnythingLLM and Botpress, with custom-coded solutions using LangChain, FAISS, and FastAPI. The research uses Prompt engineering, Retrieval-augmented generation (RAG), and personalization to evaluate chatbot prototypes across technical performance, scalability, and user experience. Findings indicate that while low-code platforms enable rapid prototyping, they face limitations in customization and scaling, while custom-coded systems offer more control but require significant technical expertise. Both approaches successfully implement key research principles such as adaptive feedback loops and conversational continuity. The study provides a framework for selecting the appropriate development strategy based on institutional goals and resources. Future work will focus on hybrid solutions that combine low-code accessibility with modular customization and incorporate multimodal input for intelligent tutoring systems.
- Abstract(参考訳): 本稿では,ローコードプラットフォームとカスタムコードソリューションを教育的文脈で比較することにより,コースチャットボット開発のためのアプローチについて検討する。
GPT-4やLLaMAのような大規模言語モデル(LLM)の台頭に伴い、LLMベースのチャットボットはタスクの自動化、アシストの提供、スケーラブルなサポートを提供するための教育ワークフローに統合されている。
しかし、最適な開発戦略を選択するには、使いやすさ、カスタマイズ、データプライバシ、スケーラビリティのバランスをとる必要がある。
本研究では、AnythingLLMやBotpressのようなローコードプラットフォームと、LangChain、FAISS、FastAPIを使ったカスタムコードソリューションの2つの開発アプローチを比較した。
この研究は、Promptエンジニアリング、Retrieval-augmented Generation(RAG)、およびパーソナライズを使用して、技術的パフォーマンス、スケーラビリティ、ユーザエクスペリエンスにわたってチャットボットのプロトタイプを評価する。
ローコードプラットフォームは迅速なプロトタイピングを可能にする一方で、カスタマイズとスケーリングの制限に直面している。
どちらのアプローチも、適応的なフィードバックループや会話の連続性といった重要な研究原則の実装に成功している。
本研究は,制度的目標と資源に基づいて適切な開発戦略を選択するための枠組みを提供する。
今後の研究は、低コードアクセシビリティとモジュールのカスタマイズを併用し、インテリジェントなチューリングシステムにマルチモーダル入力を組み込むハイブリッドソリューションに焦点を当てる予定である。
関連論文リスト
- Rethinking Technology Stack Selection with AI Coding Proficiency [49.617080246389605]
大規模言語モデル(LLM)は今やソフトウェア開発の不可欠な部分です。
我々は、LLMが与えられた技術を用いて高品質なコードスニペットを生成することができる、AI符号化能力という概念を提案する。
我々は,170のサードパーティ製ライブラリと61のタスクシナリオを対象とした,AI習熟度に関する初の総合的研究を行った。
論文 参考訳(メタデータ) (2025-09-14T06:56:47Z) - Enhancing LLM Code Generation: A Systematic Evaluation of Multi-Agent Collaboration and Runtime Debugging for Improved Accuracy, Reliability, and Latency [0.0]
プログラミング活動の異なる構成や訓練パラダイムがコード生成の効率に与える影響について検討する。
私たちの発見は、堅牢なAI駆動型コーディングソリューションを求める組織に貴重な洞察を与えます。
論文 参考訳(メタデータ) (2025-05-04T14:44:27Z) - Creating an LLM-based AI-agent: A high-level methodology towards enhancing LLMs with APIs [0.0]
大規模言語モデル(LLM)は、工学と科学の様々な側面に革命をもたらした。
この論文は総合的なガイドとして機能し、アプリケーションプログラミングインタフェース(API)を活用する能力を備えたLLMの強化のための多面的アプローチを解明する。
本稿では,Hugging Faceコミュニティの小さなモデルを用いて,携帯端末の機能を活用したオンデバイスアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-12-17T14:14:04Z) - A Survey of Small Language Models [104.80308007044634]
小言語モデル (SLM) は, 計算資源の最小化による言語タスクの効率化と性能の向上により, ますます重要になってきている。
本稿では,SLMのアーキテクチャ,トレーニング技術,モデル圧縮技術に着目した総合的な調査を行う。
論文 参考訳(メタデータ) (2024-10-25T23:52:28Z) - Large Language Model as a Catalyst: A Paradigm Shift in Base Station Siting Optimization [62.16747639440893]
大規模言語モデル(LLM)とその関連技術は、特に迅速な工学とエージェント工学の領域において進歩している。
提案するフレームワークは、検索拡張生成(RAG)を組み込んで、ドメイン固有の知識を取得してソリューションを生成するシステムの能力を高める。
論文 参考訳(メタデータ) (2024-08-07T08:43:32Z) - DOLLmC: DevOps for Large Language model Customization [0.0]
本研究の目的は、LLMカスタマイズのためのスケーラブルで効率的なフレームワークを確立することである。
我々は,LLMの継続的学習,シームレスな展開,厳密なバージョン管理を向上する堅牢なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-19T15:20:27Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。