論文の概要: Challenges and Applications of Large Language Models: A Comparison of GPT and DeepSeek family of models
- arxiv url: http://arxiv.org/abs/2508.21377v1
- Date: Fri, 29 Aug 2025 07:41:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.94784
- Title: Challenges and Applications of Large Language Models: A Comparison of GPT and DeepSeek family of models
- Title(参考訳): 大規模言語モデルの課題と応用:GPTモデルとDeepSeekモデルの比較
- Authors: Shubham Sharma, Sneha Tuli, Narendra Badam,
- Abstract要約: 大規模言語モデル(LLM)は産業全体でAIを変革しているが、その開発と展開は依然として複雑である。
この調査は、LLMの構築と利用における16の課題を概観する。
OpenAIのクローズドソースGPT-4oと,大規模なオープンソースMixture-of-ExpertsモデルであるDeepSeek-V3-0324を比較した。
- 参考スコア(独自算出の注目度): 1.2952310333454082
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are transforming AI across industries, but their development and deployment remain complex. This survey reviews 16 key challenges in building and using LLMs and examines how these challenges are addressed by two state-of-the-art models with unique approaches: OpenAI's closed source GPT-4o (May 2024 update) and DeepSeek-V3-0324 (March 2025), a large open source Mixture-of-Experts model. Through this comparison, we showcase the trade-offs between closed source models (robust safety, fine-tuned reliability) and open source models (efficiency, adaptability). We also explore LLM applications across different domains (from chatbots and coding tools to healthcare and education), highlighting which model attributes are best suited for each use case. This article aims to guide AI researchers, developers, and decision-makers in understanding current LLM capabilities, limitations, and best practices.
- Abstract(参考訳): 大規模言語モデル(LLM)は産業全体でAIを変革しているが、その開発と展開は依然として複雑である。
この調査では、LLMの構築と使用における16の課題をレビューし、これらの課題に対して、ユニークなアプローチで2つの最先端モデルで対処する方法を検討する。OpenAIのクローズドソースGPT-4o(5月2024アップデート)と、大規模なオープンソースのMixture-of-ExpertsモデルであるDeepSeek-V3-0324(3月2025年3月)である。
この比較を通じて、クローズドソースモデル(ロバスト安全性、微調整された信頼性)とオープンソースモデル(効率、適応性)のトレードオフを示す。
また、さまざまなドメイン(チャットボットやコーディングツールから医療や教育まで)にわたるLLMアプリケーションについても検討し、ユースケースごとにどのモデル属性が最適かを強調します。
この記事では、現在のLLM能力、制限、ベストプラクティスを理解するために、AI研究者、開発者、意思決定者を導くことを目的としています。
関連論文リスト
- Code Red! On the Harmfulness of Applying Off-the-shelf Large Language Models to Programming Tasks [12.242406234298443]
我々は、潜在的に有害なソフトウェアエンジニアリングシナリオの分類法を開発する。
次に、この分類に基づいてプロンプトのデータセットを作成します。
本稿では,モデルサイズ,アーキテクチャファミリー,アライメント戦略が有害なコンテンツを生成する傾向に与える影響について検討する。
論文 参考訳(メタデータ) (2025-04-02T16:00:14Z) - Generating Computational Cognitive Models using Large Language Models [4.269194018613294]
我々は、GeCCo(Computational Cognitive Models)のガイド生成のためのパイプラインを導入する。
GeCCo は LLM に候補モデルの提案を促し,データ保持に適合させ,予測性能に基づいて反復的に改良する。
このアプローチを4つの異なる認知領域にわたってベンチマークします。
論文 参考訳(メタデータ) (2025-02-02T19:07:13Z) - Rethinking Scale: The Efficacy of Fine-Tuned Open-Source LLMs in Large-Scale Reproducible Social Science Research [0.0]
大規模言語モデル(LLM)は、パラメータのサイズと性能を規定するアーキテクチャによって区別される。
社会科学者はテキスト分類タスクにLLMを採用しており、人間のコーダーではスケールが難しい。
本研究は,ChatGPT-4 などのモデルに対して,小型かつ微調整のオープンソース LLM が同等あるいは優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-10-31T20:26:30Z) - Model Merging in LLMs, MLLMs, and Beyond: Methods, Theories, Applications and Opportunities [89.40778301238642]
モデルマージは、機械学習コミュニティにおける効率的なエンパワーメント技術である。
これらの手法の体系的かつ徹底的なレビューに関する文献には大きなギャップがある。
論文 参考訳(メタデータ) (2024-08-14T16:58:48Z) - Improving the Capabilities of Large Language Model Based Marketing Analytics Copilots With Semantic Search And Fine-Tuning [0.9787137564521711]
本稿では, 意味探索, プロンプトエンジニアリング, 微調整を組み合わせることで, LLMのタスクを正確に実行する能力を大幅に向上させることができることを示す。
GPT-4のようなプロプライエタリなモデルと、Llama-2-70bのようなオープンソースのモデル、および様々な埋め込み方法を比較します。
論文 参考訳(メタデータ) (2024-04-16T03:39:16Z) - A Review of Multi-Modal Large Language and Vision Models [1.9685736810241874]
大規模言語モデル(LLM)が研究と応用の焦点として登場した。
近年、LLMはマルチモーダル大言語モデル(MM-LLM)に拡張されている。
本稿では,近年のMM-LLMとともに,マルチモーダル機能を有するLLMの現状を概観する。
論文 参考訳(メタデータ) (2024-03-28T15:53:45Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Language Models as a Service: Overview of a New Paradigm and its
Challenges [47.75762014254756]
現在最も強力な言語モデルはプロプライエタリなシステムであり、(典型的には制限のある)Webやプログラミングでのみアクセス可能である。
本稿では,LMインタフェースのアクセシビリティ,複製性,信頼性,信頼性の障害となる課題について述べる。
一方で、現在のメジャーなLMに関する既存の知識の総合的なリソースとして機能し、インターフェースが提供するライセンスと機能の概要を総合的に提供する。
論文 参考訳(メタデータ) (2023-09-28T16:29:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。