論文の概要: The ARRT of Language-Models-as-a-Service: Overview of a New Paradigm and
its Challenges
- arxiv url: http://arxiv.org/abs/2309.16573v1
- Date: Thu, 28 Sep 2023 16:29:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 13:25:17.469821
- Title: The ARRT of Language-Models-as-a-Service: Overview of a New Paradigm and
its Challenges
- Title(参考訳): 言語モデル・アズ・ア・サービスARRT:新しいパラダイムの概要と課題
- Authors: Emanuele La Malfa, Aleksandar Petrov, Simon Frieder, Christoph
Weinhuber, Ryan Burnell, Anthony G. Cohn, Nigel Shadbolt, Michael Wooldridge
- Abstract要約: 現在最も強力な言語モデルはプロプライエタリなシステムであり、(典型的には制限のある)Webまたはプログラミングインターフェースを介してのみアクセス可能である。
上記の課題が,LMのアクセシビリティ,複製性,信頼性,信頼性の障害となるかを検討する。
私たちは、ライトカレントソリューションを放棄し、いくつかのレコメンデーションを提供し、今後の進歩の方向性を強調しました。
- 参考スコア(独自算出の注目度): 49.55358760590664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Some of the most powerful language models currently are proprietary systems,
accessible only via (typically restrictive) web or software programming
interfaces. This is the Language-Models-as-a-Service (LMaaS) paradigm.
Contrasting with scenarios where full model access is available, as in the case
of open-source models, such closed-off language models create specific
challenges for evaluating, benchmarking, and testing them. This paper has two
goals: on the one hand, we delineate how the aforementioned challenges act as
impediments to the accessibility, replicability, reliability, and
trustworthiness (ARRT) of LMaaS. We systematically examine the issues that
arise from a lack of information about language models for each of these four
aspects. We shed light on current solutions, provide some recommendations, and
highlight the directions for future advancements. On the other hand, it serves
as a one-stop-shop for the extant knowledge about current, major LMaaS,
offering a synthesized overview of the licences and capabilities their
interfaces offer.
- Abstract(参考訳): 現在、最も強力な言語モデルはプロプライエタリなシステムであり、Webまたはソフトウェアプログラミングインターフェースを介してのみアクセス可能である。
これはLanguage-Models-as-a-Service(LMaaS)パラダイムです。
オープンソースモデルのように、フルモデルアクセスが利用可能なシナリオとは対照的に、このようなクローズオフ言語モデルは、評価、ベンチマーク、テストに特有の課題を生み出します。
本稿では,LMaaSのアクセシビリティ,複製性,信頼性,信頼性(ARRT)に対する障害として,上記の課題がどのように振舞うかを述べる。
これら4つの側面それぞれについて,言語モデルに関する情報の欠如から生じる問題点を体系的に検討する。
私たちは現在のソリューションに光を当て、いくつかのレコメンデーションを提供し、今後の進歩の方向性を強調した。
一方で、現在のメジャーなLMaaSに関する最新の知識のワンストップショップとして機能し、インターフェースが提供するライセンスと機能の概要を合成する。
関連論文リスト
- Model Merging in LLMs, MLLMs, and Beyond: Methods, Theories, Applications and Opportunities [89.40778301238642]
モデルマージは、機械学習コミュニティにおける効率的なエンパワーメント技術である。
これらの手法の体系的かつ徹底的なレビューに関する文献には大きなギャップがある。
論文 参考訳(メタデータ) (2024-08-14T16:58:48Z) - LangSuitE: Planning, Controlling and Interacting with Large Language Models in Embodied Text Environments [70.91258869156353]
テキストエンボディの世界における6つの代表的具体的タスクを特徴とする多目的・シミュレーション不要なテストベッドであるLangSuitEを紹介する。
以前のLLMベースのテストベッドと比較すると、LangSuitEは複数のシミュレーションエンジンを使わずに、多様な環境への適応性を提供する。
具体化された状態の履歴情報を要約した新しいチェーン・オブ・ソート(CoT)スキーマであるEmMemを考案する。
論文 参考訳(メタデータ) (2024-06-24T03:36:29Z) - L2CEval: Evaluating Language-to-Code Generation Capabilities of Large
Language Models [102.00201523306986]
大規模言語モデル(LLM)の言語間コード生成能力を体系的に評価するL2CEvalを提案する。
モデルのサイズ、事前学習データ、命令チューニング、異なるプロンプトメソッドなど、それらのパフォーマンスに影響を与える可能性のある要因を分析する。
モデル性能の評価に加えて、モデルに対する信頼性校正を計測し、出力プログラムの人間による評価を行う。
論文 参考訳(メタデータ) (2023-09-29T17:57:00Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - A Systematic Survey of Prompt Engineering on Vision-Language Foundation
Models [43.35892536887404]
プロンプトエンジニアリングは、新しいタスクにモデルを適応させるために、プロンプトとして知られるタスク固有のヒントで、トレーニング済みの大きなモデルを拡張することを含む。
本稿では,3種類の視覚言語モデルについて,最先端の研究の総合的な調査を行うことを目的とする。
論文 参考訳(メタデータ) (2023-07-24T17:58:06Z) - Foundation Models for Decision Making: Problems, Methods, and
Opportunities [124.79381732197649]
大規模に多様なデータに基づいて事前訓練された基礎モデルは、幅広いビジョンと言語タスクにおいて異常な能力を示してきた。
ファンデーションモデルをトレーニングし、他のエージェントと対話し、長期的な推論を行うための新しいパラダイムが生まれている。
基礎モデルと意思決定の交わりにおける研究は、強力な新しいシステムを作るための大きな約束である。
論文 参考訳(メタデータ) (2023-03-07T18:44:07Z) - Foundation Models for Natural Language Processing -- Pre-trained
Language Models Integrating Media [0.0]
ファンデーションモデルは自然言語処理のための事前訓練された言語モデルである。
画像処理やビデオ処理からロボット制御学習まで、幅広いメディアや問題領域に適用することができる。
本書は、ファンデーションモデルの研究および応用における技術の現状を概観する。
論文 参考訳(メタデータ) (2023-02-16T20:42:04Z) - An Overview on Controllable Text Generation via Variational
Auto-Encoders [15.97186478109836]
ニューラルベース生成モデリングの最近の進歩は、コンピュータシステムが人間と会話できるという期待を再燃させた。
変分自動エンコーダ(VAE)のような潜在変数モデル(LVM)は、テキストデータの分布パターンを特徴付けるように設計されている。
この概要は、既存の生成方式、テキスト変分自動エンコーダに関連する問題、および制御可能な生成に関するいくつかのアプリケーションについて概説する。
論文 参考訳(メタデータ) (2022-11-15T07:36:11Z) - On the Universality of Deep COntextual Language Models [15.218264849664715]
ELMOやBERTのような深い文脈言語モデル(LM)は、自然言語処理のランドスケープを支配している。
XLM-RやmBERTのような多言語モデルでは、ゼロショットのクロスリンガル転送が期待できる結果となった。
この最初の成功により、訓練済みのモデルはユニバーサル言語モデルとして使用されている。
論文 参考訳(メタデータ) (2021-09-15T08:00:33Z) - Combining pre-trained language models and structured knowledge [9.521634184008574]
トランスフォーマーベースの言語モデルは、様々なNLPベンチマークにおいて、最先端の性能を実現している。
これらのモデルに知識グラフのような構造化情報を統合することは困難であることが証明されている。
構造化された知識を現在の言語モデルに統合し、課題を決定するための様々なアプローチについて検討し、構造化された情報ソースと非構造化された情報ソースの両方を活用する機会について検討する。
論文 参考訳(メタデータ) (2021-01-28T21:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。