論文の概要: TAMUSA-Chat: A Domain-Adapted Large Language Model Conversational System for Research and Responsible Deployment
- arxiv url: http://arxiv.org/abs/2603.09992v1
- Date: Sat, 14 Feb 2026 04:44:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:38:22.536596
- Title: TAMUSA-Chat: A Domain-Adapted Large Language Model Conversational System for Research and Responsible Deployment
- Title(参考訳): ドメイン適応型大規模言語モデル対話システムTAMUSA-Chat
- Authors: Izzat Alsmadi, Anas Alsobeh,
- Abstract要約: TAMUSA-Chatはドメイン適応型大規模言語モデル対話システムを構築するためのフレームワークである。
私たちは、透明性、ガバナンスのコンプライアンス、責任あるAIプラクティスを維持しながら、学術機関が文脈に根ざした会話エージェントを開発する方法を示します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents TAMUSA-Chat, a research-oriented framework for building domain-adapted large language model conversational systems. The work addresses critical challenges in adapting general-purpose foundation models to institutional contexts through supervised fine-tuning, retrieval-augmented generation, and systematic evaluation methodologies. We describe the complete architecture encompassing data acquisition from institutional sources, preprocessing pipelines, embedding construction, model training workflows, and deployment strategies. The system integrates modular components enabling reproducible experimentation with training configurations, hyper-parameters, and evaluation protocols. Our implementation demonstrates how academic institutions can develop contextually grounded conversational agents while maintaining transparency, governance compliance, and responsible AI practices. Through empirical analysis of fine-tuning behavior across model sizes and training iterations, we provide insights into domain adaptation efficiency, computational resource requirements, and quality-cost trade-offs. The publicly available codebase at https://github.com/alsmadi/TAMUSA_LLM_Based_Chat_app supports continued research into institutional LLM deployment, evaluation methodologies, and ethical considerations for educational AI systems.
- Abstract(参考訳): 本稿では,ドメイン適応型大規模言語モデル対話システムを構築するための研究指向フレームワークであるTAMUSA-Chatについて述べる。
本研究は, 教師付き微調整, 検索強化生成, 体系的評価手法を通じて, 汎用基盤モデルを制度的文脈に適用する上で重要な課題に対処する。
システムソースからのデータ取得,前処理パイプライン,組込み構造,モデルトレーニングワークフロー,デプロイメント戦略を含む,完全なアーキテクチャについて説明する。
このシステムは、トレーニング構成、ハイパーパラメータ、評価プロトコルで再現可能な実験を可能にするモジュールコンポーネントを統合する。
我々の実装は、透明性、ガバナンスのコンプライアンス、責任あるAIプラクティスを維持しながら、学術機関が文脈的に根ざした会話エージェントを開発する方法を示している。
モデルのサイズをまたいだ微調整動作の実証分析とトレーニングの繰り返しを通じて、ドメイン適応効率、計算資源要求、品質コストトレードオフに関する洞察を提供する。
https://github.com/alsmadi/TAMUSA_LLM_Based_Chat_appで公開されているコードベースは、機関のLLMデプロイメント、評価方法論、教育AIシステムに対する倫理的考慮に関する継続的な研究をサポートする。
関連論文リスト
- Large Language Models in Operations Research: Methods, Applications, and Challenges [9.208082097215314]
オペレーションリサーチ(OR)は、輸送、サプライチェーン管理、生産スケジュールなど、複雑なシステム決定を支援する。
専門家主導のモデリングと手動パラメータチューニングに依存する従来のアプローチは、しばしば大規模、動的、マルチ制約の問題に悩まされる。
本稿では,大規模言語モデル(LLM)をORに適用し,既存の手法を3つの経路に分類する。
論文 参考訳(メタデータ) (2025-09-18T01:52:19Z) - Survey of LLM Agent Communication with MCP: A Software Design Pattern Centric Review [0.9208007322096533]
調査ではMediator, Observer, Publish-Subscribe, Brokerなど,確立したパターンを再検討している。
記事は、オープンな課題、潜在的なセキュリティリスク、堅牢で相互運用可能でスケーラブルなマルチエージェントエコシステムを前進させる有望な方向性を概説することで締めくくっている。
論文 参考訳(メタデータ) (2025-05-26T09:11:17Z) - Towards Next-Generation Urban Decision Support Systems through AI-Powered Construction of Scientific Ontology using Large Language Models -- A Case in Optimizing Intermodal Freight Transportation [1.6230958216521798]
本研究では,事前学習された大規模言語モデル(LLM)を活用する可能性について検討する。
推論コアとしてChatGPT APIを採用することで、自然言語処理、メソノロジーベースのプロンプトチューニング、トランスフォーマーを含む統合ワークフローを概説する。
我々の方法論の成果は、広く採用されているオントロジー言語(OWL、RDF、SPARQLなど)の知識グラフである。
論文 参考訳(メタデータ) (2024-05-29T16:40:31Z) - Instruction Tuning for Large Language Models: A Survey [52.86322823501338]
我々は、教師付き微調整(SFT)の一般的な方法論を含む、文献の体系的なレビューを行う。
また、既存の戦略の欠陥を指摘しながら、SFTの潜在的な落とし穴についても、それに対する批判とともに検討する。
論文 参考訳(メタデータ) (2023-08-21T15:35:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。