論文の概要: Challenges and Applications of Large Language Models
- arxiv url: http://arxiv.org/abs/2307.10169v1
- Date: Wed, 19 Jul 2023 17:55:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 12:59:38.124164
- Title: Challenges and Applications of Large Language Models
- Title(参考訳): 大規模言語モデルの挑戦と応用
- Authors: Jean Kaddour, Joshua Harris, Maximilian Mozes, Herbie Bradley, Roberta
Raileanu, Robert McHardy
- Abstract要約: 大規模言語モデル(LLM)は、数年のうちに、機械学習の議論において、存在しないものからユビキタスなものへと移行した。
この分野の速いペースのため、残りの課題を特定することは困難であり、既に実りある応用分野である。
- 参考スコア(独自算出の注目度): 9.550178697622306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) went from non-existent to ubiquitous in the
machine learning discourse within a few years. Due to the fast pace of the
field, it is difficult to identify the remaining challenges and already
fruitful application areas. In this paper, we aim to establish a systematic set
of open problems and application successes so that ML researchers can
comprehend the field's current state more quickly and become productive.
- Abstract(参考訳): 大規模言語モデル(llm)は、数年以内に、マシンラーニングの談話に存在せず、ユビキタスなものへと移行した。
この分野の速いペースのため、残りの課題を特定することは困難であり、既に実りある応用分野である。
本稿では,ML研究者が現場の状態をより早く理解し,生産的になるよう,オープンな問題とアプリケーション成功の体系的なセットを確立することを目的とする。
関連論文リスト
- BloomWise: Enhancing Problem-Solving capabilities of Large Language Models using Bloom's-Taxonomy-Inspired Prompts [59.83547898874152]
我々は,Bloomの分類にインスパイアされた新しいプロンプト技術であるBloomWiseを導入し,Large Language Models(LLMs)の性能を向上させる。
より洗練された認知スキルを身につける必要性に関する決定は、LLMによる自己評価に基づいている。
4つの一般的な算数推論データセットの広範な実験において,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-10-05T09:27:52Z) - A Comprehensive Review of Multimodal Large Language Models: Performance and Challenges Across Different Tasks [74.52259252807191]
MLLM(Multimodal Large Language Models)は、単一のモダリティシステムの能力を超えた現実世界のアプリケーションの複雑さに対処する。
本稿では,自然言語,視覚,音声などのマルチモーダルタスクにおけるMLLMの応用を体系的に整理する。
論文 参考訳(メタデータ) (2024-08-02T15:14:53Z) - Solving for X and Beyond: Can Large Language Models Solve Complex Math Problems with More-Than-Two Unknowns? [57.80779199039929]
大規模言語モデル (LLM) は数学問題の解法において顕著な性能を示した。
本稿では,複数の未知の問題を組み込むことで,これらの制約に対処する新しいベンチマークであるBeyondXを紹介する。
BeyondXに関する実証的な研究によると、数学のタスクに特化して調整された既存のLLMの性能は、未知の数が増えるにつれて著しく低下する。
論文 参考訳(メタデータ) (2024-07-06T17:01:04Z) - A Survey of AIOps for Failure Management in the Era of Large Language Models [60.59720351854515]
本稿では,LLM時代の障害管理のためのAIOps技術に関する包括的調査を行う。
これには、障害管理のためのAIOpsタスクの詳細な定義、AIOpsのデータソース、AIOpsに採用されているLLMベースのアプローチが含まれている。
論文 参考訳(メタデータ) (2024-06-17T05:13:24Z) - Large Language Models for Networking: Workflow, Advances and Challenges [19.104593453342304]
ネットワークの分野は、その複雑さと迅速な反復によって特徴づけられる。
従来の機械学習ベースの手法は、ネットワークにおける複雑なタスクの一般化と自動化に苦慮している。
近年の大規模言語モデル(LLM)の出現は、これらの課題に対処する新たな可能性の波を引き起こしている。
論文 参考訳(メタデータ) (2024-04-19T14:17:02Z) - Scalable Language Model with Generalized Continual Learning [58.700439919096155]
The Joint Adaptive Re-ization (JARe) is integrated with Dynamic Task-related Knowledge Retrieval (DTKR) to enable adapt adjust of language model based on specific downstream task。
提案手法は,様々なバックボーンやベンチマーク上での最先端性能を実証し,最小限の忘れを伴い,フルセットおよび少数ショットのシナリオにおいて効果的な連続学習を実現する。
論文 参考訳(メタデータ) (2024-04-11T04:22:15Z) - A Survey of Large Language Models in Cybersecurity [0.5221459608786241]
大規模言語モデル(LLM)は、自然言語を処理しながら様々な分野における最先端の処理を行う能力により、急速に普及している。
この調査は、サイバーセキュリティのLLMがすでに適用されている分野、使用方法、分野における制限の特定を目的としている。
論文 参考訳(メタデータ) (2024-02-26T19:06:02Z) - ACES: Generating Diverse Programming Puzzles with with Autotelic Generative Models [20.039580079339537]
Autotelic CodE Search (ACES)は、生成した問題の多様性と難易度を共同で最適化する。
問題解決に必要なプログラミングスキルを記述したセマンティック記述子の空間における問題を表現する。
ACESは、ターゲットセマンティック記述子の多様性を達成するため、大きな言語モデルに難しい問題を引き起こすことを反復的に促します。
論文 参考訳(メタデータ) (2023-10-15T14:57:14Z) - Domain Specialization as the Key to Make Large Language Models Disruptive: A Comprehensive Survey [100.24095818099522]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野を著しく進歩させた。
広範囲のアプリケーションに対して、非常に有用でタスクに依存しない基盤を提供する。
しかし、特定の領域における洗練された問題を解決するために直接LLMを適用することは、多くのハードルを満たす。
論文 参考訳(メタデータ) (2023-05-30T03:00:30Z) - MLCopilot: Unleashing the Power of Large Language Models in Solving
Machine Learning Tasks [31.733088105662876]
我々は、新しいフレームワークを導入することで、機械学習と人間の知識のギャップを埋めることを目指している。
本稿では、構造化された入力を理解するためのLLMの能力を拡張し、新しいMLタスクを解くための徹底的な推論を行う可能性を示す。
論文 参考訳(メタデータ) (2023-04-28T17:03:57Z) - Multi-task learning for natural language processing in the 2020s: where
are we going? [4.314956204483073]
マルチタスク学習(MTL)は深層学習時代をかなり前倒しにしており、ここ数年で復活している。
本稿では,近年のMLLの自然言語処理分野への貢献を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-22T13:44:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。