論文の概要: Challenges and Applications of Large Language Models: A Comparison of GPT and DeepSeek family of models
- arxiv url: http://arxiv.org/abs/2508.21377v1
- Date: Fri, 29 Aug 2025 07:41:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.94784
- Title: Challenges and Applications of Large Language Models: A Comparison of GPT and DeepSeek family of models
- Title(参考訳): 大規模言語モデルの課題と応用:GPTモデルとDeepSeekモデルの比較
- Authors: Shubham Sharma, Sneha Tuli, Narendra Badam,
- Abstract要約: 大規模言語モデル(LLM)は産業全体でAIを変革しているが、その開発と展開は依然として複雑である。
この調査は、LLMの構築と利用における16の課題を概観する。
OpenAIのクローズドソースGPT-4oと,大規模なオープンソースMixture-of-ExpertsモデルであるDeepSeek-V3-0324を比較した。
- 参考スコア(独自算出の注目度): 1.2952310333454082
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are transforming AI across industries, but their development and deployment remain complex. This survey reviews 16 key challenges in building and using LLMs and examines how these challenges are addressed by two state-of-the-art models with unique approaches: OpenAI's closed source GPT-4o (May 2024 update) and DeepSeek-V3-0324 (March 2025), a large open source Mixture-of-Experts model. Through this comparison, we showcase the trade-offs between closed source models (robust safety, fine-tuned reliability) and open source models (efficiency, adaptability). We also explore LLM applications across different domains (from chatbots and coding tools to healthcare and education), highlighting which model attributes are best suited for each use case. This article aims to guide AI researchers, developers, and decision-makers in understanding current LLM capabilities, limitations, and best practices.
- Abstract(参考訳): 大規模言語モデル(LLM)は産業全体でAIを変革しているが、その開発と展開は依然として複雑である。
この調査では、LLMの構築と使用における16の課題をレビューし、これらの課題に対して、ユニークなアプローチで2つの最先端モデルで対処する方法を検討する。OpenAIのクローズドソースGPT-4o(5月2024アップデート)と、大規模なオープンソースのMixture-of-ExpertsモデルであるDeepSeek-V3-0324(3月2025年3月)である。
この比較を通じて、クローズドソースモデル(ロバスト安全性、微調整された信頼性)とオープンソースモデル(効率、適応性)のトレードオフを示す。
また、さまざまなドメイン(チャットボットやコーディングツールから医療や教育まで)にわたるLLMアプリケーションについても検討し、ユースケースごとにどのモデル属性が最適かを強調します。
この記事では、現在のLLM能力、制限、ベストプラクティスを理解するために、AI研究者、開発者、意思決定者を導くことを目的としています。
関連論文リスト
- Open-Source Multimodal Moxin Models with Moxin-VLM and Moxin-VLA [53.68989489261506]
Moxin 7Bは、完全にオープンソースなLarge Language Models (LLMs)として導入された。
我々は,Moxin-VLM,Moxin-VLA,Moxin- Chineseの3つの変種を開発した。
実験により, 各種評価において, モデルが優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-12-22T02:36:42Z) - Speed Always Wins: A Survey on Efficient Architectures for Large Language Models [51.817121227562964]
大規模言語モデル(LLM)は、言語理解、生成、推論、マルチモーダルモデルの能力境界の押し付けにおいて、素晴らしい結果をもたらしている。
トランスフォーマーモデルは、現代のLLMの基礎として、優れたスケーリング特性を備えた強力なベースラインを提供する。
従来のトランスフォーマーアーキテクチャは、相当な計算を必要とし、大規模なトレーニングと実践的なデプロイメントに重大な障害を生じさせる。
論文 参考訳(メタデータ) (2025-08-13T14:13:46Z) - Discrete Diffusion in Large Language and Multimodal Models: A Survey [61.86669998363359]
離散拡散言語モデル(dLLMs)と離散拡散多モード言語モデル(dMLLMs)の体系的調査を行う。
自己回帰(AR)モデルとは異なり、dLLMsとdMLLMsはマルチトークンの並列デコーディングパラダイムを採用しており、フルアテンションとデノナイジングに基づく生成戦略を採用している。
我々は、dLLMとdMLLMの歴史的発展を辿り、基礎となる数学的枠組みを定式化し、一般的なモデリング手法を列挙し、代表モデルを分類する。
論文 参考訳(メタデータ) (2025-06-16T17:59:08Z) - Code Red! On the Harmfulness of Applying Off-the-shelf Large Language Models to Programming Tasks [12.242406234298443]
我々は、潜在的に有害なソフトウェアエンジニアリングシナリオの分類法を開発する。
次に、この分類に基づいてプロンプトのデータセットを作成します。
本稿では,モデルサイズ,アーキテクチャファミリー,アライメント戦略が有害なコンテンツを生成する傾向に与える影響について検討する。
論文 参考訳(メタデータ) (2025-04-02T16:00:14Z) - Generating Computational Cognitive Models using Large Language Models [4.269194018613294]
我々は、GeCCo(Computational Cognitive Models)のガイド生成のためのパイプラインを導入する。
GeCCo は LLM に候補モデルの提案を促し,データ保持に適合させ,予測性能に基づいて反復的に改良する。
このアプローチを4つの異なる認知領域にわたってベンチマークします。
論文 参考訳(メタデータ) (2025-02-02T19:07:13Z) - Rethinking Scale: The Efficacy of Fine-Tuned Open-Source LLMs in Large-Scale Reproducible Social Science Research [0.0]
大規模言語モデル(LLM)は、パラメータのサイズと性能を規定するアーキテクチャによって区別される。
社会科学者はテキスト分類タスクにLLMを採用しており、人間のコーダーではスケールが難しい。
本研究は,ChatGPT-4 などのモデルに対して,小型かつ微調整のオープンソース LLM が同等あるいは優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-10-31T20:26:30Z) - Model Merging in LLMs, MLLMs, and Beyond: Methods, Theories, Applications and Opportunities [89.40778301238642]
モデルマージは、機械学習コミュニティにおける効率的なエンパワーメント技術である。
これらの手法の体系的かつ徹底的なレビューに関する文献には大きなギャップがある。
論文 参考訳(メタデータ) (2024-08-14T16:58:48Z) - Improving the Capabilities of Large Language Model Based Marketing Analytics Copilots With Semantic Search And Fine-Tuning [0.9787137564521711]
本稿では, 意味探索, プロンプトエンジニアリング, 微調整を組み合わせることで, LLMのタスクを正確に実行する能力を大幅に向上させることができることを示す。
GPT-4のようなプロプライエタリなモデルと、Llama-2-70bのようなオープンソースのモデル、および様々な埋め込み方法を比較します。
論文 参考訳(メタデータ) (2024-04-16T03:39:16Z) - A Review of Multi-Modal Large Language and Vision Models [1.9685736810241874]
大規模言語モデル(LLM)が研究と応用の焦点として登場した。
近年、LLMはマルチモーダル大言語モデル(MM-LLM)に拡張されている。
本稿では,近年のMM-LLMとともに,マルチモーダル機能を有するLLMの現状を概観する。
論文 参考訳(メタデータ) (2024-03-28T15:53:45Z) - MT-Eval: A Multi-Turn Capabilities Evaluation Benchmark for Large
Language Models [70.92847554971065]
MT-Evalは,マルチターン対話能力を評価するための総合的なベンチマークである。
人間のLLM会話を解析することにより,インタラクションパターンを,再現,拡張,洗練,フォローアップの4つのタイプに分類する。
11個の有名なLCMを評価したところ、クローズドソースモデルは一般的にオープンソースモデルを上回るが、特定のタスクにおいて特定のオープンソースモデルの方がGPT-3.5-Turboを上回っていることがわかった。
論文 参考訳(メタデータ) (2024-01-30T04:50:28Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Language Models as a Service: Overview of a New Paradigm and its
Challenges [47.75762014254756]
現在最も強力な言語モデルはプロプライエタリなシステムであり、(典型的には制限のある)Webやプログラミングでのみアクセス可能である。
本稿では,LMインタフェースのアクセシビリティ,複製性,信頼性,信頼性の障害となる課題について述べる。
一方で、現在のメジャーなLMに関する既存の知識の総合的なリソースとして機能し、インターフェースが提供するライセンスと機能の概要を総合的に提供する。
論文 参考訳(メタデータ) (2023-09-28T16:29:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。