論文の概要: Challenges and Applications of Large Language Models
- arxiv url: http://arxiv.org/abs/2307.10169v1
- Date: Wed, 19 Jul 2023 17:55:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 12:59:38.124164
- Title: Challenges and Applications of Large Language Models
- Title(参考訳): 大規模言語モデルの挑戦と応用
- Authors: Jean Kaddour, Joshua Harris, Maximilian Mozes, Herbie Bradley, Roberta
Raileanu, Robert McHardy
- Abstract要約: 大規模言語モデル(LLM)は、数年のうちに、機械学習の議論において、存在しないものからユビキタスなものへと移行した。
この分野の速いペースのため、残りの課題を特定することは困難であり、既に実りある応用分野である。
- 参考スコア(独自算出の注目度): 9.550178697622306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) went from non-existent to ubiquitous in the
machine learning discourse within a few years. Due to the fast pace of the
field, it is difficult to identify the remaining challenges and already
fruitful application areas. In this paper, we aim to establish a systematic set
of open problems and application successes so that ML researchers can
comprehend the field's current state more quickly and become productive.
- Abstract(参考訳): 大規模言語モデル(llm)は、数年以内に、マシンラーニングの談話に存在せず、ユビキタスなものへと移行した。
この分野の速いペースのため、残りの課題を特定することは困難であり、既に実りある応用分野である。
本稿では,ML研究者が現場の状態をより早く理解し,生産的になるよう,オープンな問題とアプリケーション成功の体系的なセットを確立することを目的とする。
関連論文リスト
- Large Language Models for Networking: Workflow, Advances and Challenges [19.104593453342304]
ネットワークの分野は、その複雑さと迅速な反復によって特徴づけられる。
従来の機械学習ベースの手法は、ネットワークにおける複雑なタスクの一般化と自動化に苦慮している。
近年の大規模言語モデル(LLM)の出現は、これらの課題に対処する新たな可能性の波を引き起こしている。
論文 参考訳(メタデータ) (2024-04-19T14:17:02Z) - Scalable Language Model with Generalized Continual Learning [58.700439919096155]
The Joint Adaptive Re-ization (JARe) is integrated with Dynamic Task-related Knowledge Retrieval (DTKR) to enable adapt adjust of language model based on specific downstream task。
提案手法は,様々なバックボーンやベンチマーク上での最先端性能を実証し,最小限の忘れを伴い,フルセットおよび少数ショットのシナリオにおいて効果的な連続学習を実現する。
論文 参考訳(メタデータ) (2024-04-11T04:22:15Z) - Multilingual Large Language Model: A Survey of Resources, Taxonomy and Frontiers [81.47046536073682]
本稿では,MLLM(Multilingual Large Language Model)文学における最近の進歩と新たなトレンドを要約する一貫した視点を提示する。
私たちの研究がコミュニティに迅速なアクセスを提供し、MLLMにおける画期的な研究を促進することを願っています。
論文 参考訳(メタデータ) (2024-04-07T11:52:44Z) - LVLM-Intrepret: An Interpretability Tool for Large Vision-Language Models [50.259006481656094]
本稿では,大規模視覚言語モデルの内部メカニズムの理解を目的とした対話型アプリケーションを提案する。
このインタフェースは, 画像パッチの解釈可能性を高めるために設計されており, 応答の生成に有効である。
本稿では,一般的な大規模マルチモーダルモデルであるLLaVAにおける障害機構の理解に,アプリケーションがどのように役立つかのケーススタディを示す。
論文 参考訳(メタデータ) (2024-04-03T23:57:34Z) - A Survey of Large Language Models in Cybersecurity [0.5221459608786241]
大規模言語モデル(LLM)は、自然言語を処理しながら様々な分野における最先端の処理を行う能力により、急速に普及している。
この調査は、サイバーセキュリティのLLMがすでに適用されている分野、使用方法、分野における制限の特定を目的としている。
論文 参考訳(メタデータ) (2024-02-26T19:06:02Z) - Simultaneous Machine Translation with Large Language Models [51.470478122113356]
我々は,SimulMTタスクに大規模言語モデルを適用する可能性を検討する。
MUST-Cデータセットと異なる9言語でtextttLlama2-7b-chatモデルを用いて実験を行った。
その結果,LLM は BLEU と LAAL の指標で専用MT モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-13T04:06:47Z) - Domain Specialization as the Key to Make Large Language Models Disruptive: A Comprehensive Survey [100.24095818099522]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野を著しく進歩させた。
広範囲のアプリケーションに対して、非常に有用でタスクに依存しない基盤を提供する。
しかし、特定の領域における洗練された問題を解決するために直接LLMを適用することは、多くのハードルを満たす。
論文 参考訳(メタデータ) (2023-05-30T03:00:30Z) - MLCopilot: Unleashing the Power of Large Language Models in Solving
Machine Learning Tasks [31.733088105662876]
我々は、新しいフレームワークを導入することで、機械学習と人間の知識のギャップを埋めることを目指している。
本稿では、構造化された入力を理解するためのLLMの能力を拡張し、新しいMLタスクを解くための徹底的な推論を行う可能性を示す。
論文 参考訳(メタデータ) (2023-04-28T17:03:57Z) - Shortcut Learning of Large Language Models in Natural Language
Understanding [119.45683008451698]
大規模言語モデル(LLM)は、一連の自然言語理解タスクにおいて最先端のパフォーマンスを達成した。
予測のショートカットとしてデータセットのバイアスやアーティファクトに依存するかも知れません。
これは、その一般化性と敵対的堅牢性に大きな影響を与えている。
論文 参考訳(メタデータ) (2022-08-25T03:51:39Z) - Machine Learning Towards Intelligent Systems: Applications, Challenges,
and Opportunities [8.68311678910946]
機械学習(ML)は、人間が大量のデータを処理するためのメカニズムを提供する。
このレビューは教育、医療、ネットワークセキュリティ、銀行と金融、ソーシャルメディアといった分野と応用に焦点を当てている。
論文 参考訳(メタデータ) (2021-01-11T01:32:15Z) - Multi-task learning for natural language processing in the 2020s: where
are we going? [4.314956204483073]
マルチタスク学習(MTL)は深層学習時代をかなり前倒しにしており、ここ数年で復活している。
本稿では,近年のMLLの自然言語処理分野への貢献を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-22T13:44:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。