論文の概要: Fengshenbang 1.0: Being the Foundation of Chinese Cognitive Intelligence
- arxiv url: http://arxiv.org/abs/2209.02970v1
- Date: Wed, 7 Sep 2022 07:32:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-08 12:25:19.788157
- Title: Fengshenbang 1.0: Being the Foundation of Chinese Cognitive Intelligence
- Title(参考訳): Fengshenbang 1.0:中国認知知の基盤になる
- Authors: Junjie Wang, Yuxiang Zhang, Lin Zhang, Ping Yang, Xinyu Gao, Ziwei Wu,
Xiaoqun Dong, Junqing He, Jianheng Zhuo, Qi Yang, Yongfeng Huang, Xiayu Li,
Yanghan Wu, Junyu Lu, Xinyu Zhu, Weifeng Chen, Ting Han, Kunhao Pan, Rui
Wang, Hao Wang, Xiaojun Wu, Zhongshen Zeng, Chongpei Chen, Ruyi Gan, Jiaxing
Zhang
- Abstract要約: 我々は,認知コンピューティング・自然言語研究センター(CCNL)が主導するFengshenbangというオープンソースプロジェクトを紹介した。
私たちのプロジェクトには、大規模な事前トレーニングモデル、ユーザフレンドリなAPI、ベンチマーク、データセットなど、包括的な機能があります。
オープンソースロードマップであるFengshenbangは、中国の事前訓練された大規模モデルのオープンソースコミュニティを再評価することを目的としている。
- 参考スコア(独自算出の注目度): 34.483833039100126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, foundation models become one of fundamental infrastructures in
artificial intelligence, paving ways to the general intelligence. However, the
reality presents two urgent challenges: existing foundation models are
dominated by the English-language community; users are often given limited
resources and thus cannot always use foundation models. To support the
development of the Chinese-language community, we introduce an open-source
project, called Fengshenbang, which leads by the research center for Cognitive
Computing and Natural Language (CCNL). Our project has comprehensive
capabilities, including large pre-trained models, user-friendly APIs,
benchmarks, datasets, and others. We wrap all these in three sub-projects: the
Fengshenbang Model, the Fengshen Framework, and the Fengshen Benchmark. An
open-source roadmap, Fengshenbang, aims to re-evaluate the open-source
community of Chinese pre-trained large-scale models, prompting the development
of the entire Chinese large-scale model community. We also want to build a
user-centered open-source ecosystem to allow individuals to access the desired
models to match their computing resources. Furthermore, we invite companies,
colleges, and research institutions to collaborate with us to build the
large-scale open-source model-based ecosystem. We hope that this project will
be the foundation of Chinese cognitive intelligence.
- Abstract(参考訳): 今日では、基礎モデルは人工知能の基本的な基盤の一つとなり、一般の知性への道を開いた。
既存の基礎モデルは英語コミュニティが支配しており、ユーザーは限られたリソースを与えられることが多く、ファンデーションモデルを使うことはできない。
中国語コミュニティの発展を支援するために,認知コンピューティング・自然言語研究センター(CCNL)が主導するFengshenbangというオープンソースプロジェクトを紹介した。
私たちのプロジェクトには、大規模な事前トレーニングモデル、ユーザフレンドリなAPI、ベンチマーク、データセットなど、包括的な機能があります。
これらすべてを、fengshenbangモデル、fengshenフレームワーク、fengshenベンチマークという3つのサブプロジェクトにまとめています。
オープンソースロードマップであるFengshenbangは、中国の事前訓練された大規模モデルのオープンソースコミュニティを再評価することを目的としている。
また、ユーザ中心のオープンソースエコシステムを構築して、個人が自分のコンピューティングリソースに合わせて、望ましいモデルにアクセスできるようにしたいと考えています。
さらに私たちは,企業や大学,研究機関に対して,大規模なオープンソースモデルベースのエコシステムを構築するための協力を求めています。
このプロジェクトが中国の認知知能の基礎になることを願っている。
関連論文リスト
- OLMo: Accelerating the Science of Language Models [166.07273110740573]
言語モデル(LM)は、NLP研究と商用製品製品の両方で広く普及している。
我々は、研究コミュニティが強力で真にオープンなLMにアクセスできることが不可欠であると信じている。
このテクニカルレポートは、最先端の真にオープンな言語モデルであるOLMoの最初のリリースを詳述している。
論文 参考訳(メタデータ) (2024-02-01T18:28:55Z) - YAYI 2: Multilingual Open-Source Large Language Models [53.92832054643197]
我々は,300億のパラメータを持つベースモデルとチャットモデルを含むYAYI 2を提案する。
YAYI 2は、トレーニング済みのデータ処理パイプラインによってフィルタされた2.65兆のトークンを含む多言語コーパス上で、スクラッチから事前トレーニングされる。
ベースモデルは、数百万の指示による教師付き微調整と、人間のフィードバックからの強化学習によって、人間の価値と整合する。
論文 参考訳(メタデータ) (2023-12-22T17:34:47Z) - Towards a Structural Equation Model of Open Source Blockchain Software
Health [0.0]
この研究は探索的因子分析を用いて、一般大衆の関心やソフトウェアの人気を表す潜在構造を特定する。
私たちはGitHubリポジトリでスター、フォーク、テキストの言及が組み合わさっているのに対して、堅牢性のための第2の要因は臨界スコアで構成されていることに気付きました。
ソフトウェアヘルスの構造モデルが提案され、一般の関心が開発者のエンゲージメントに肯定的な影響を与え、ソフトウェアの堅牢性を肯定的に予測する。
論文 参考訳(メタデータ) (2023-10-31T08:47:41Z) - MindLLM: Pre-training Lightweight Large Language Model from Scratch,
Evaluations and Domain Applications [46.337078949637345]
我々は、スクラッチから訓練されたバイリンガル軽量な大規模言語モデルの新しいシリーズであるMindLLMを紹介する。
大規模なモデル開発で得られた経験の詳細な説明が与えられ、プロセスのすべてのステップをカバーする。
MindLLMは、いくつかの公開ベンチマークにおいて、他のオープンソースの大規模モデルのパフォーマンスと一貫して一致または上回っている。
論文 参考訳(メタデータ) (2023-10-24T12:22:34Z) - Cross-Lingual NER for Financial Transaction Data in Low-Resource
Languages [70.25418443146435]
半構造化テキストデータにおける言語間名前認識のための効率的なモデリングフレームワークを提案する。
我々は2つの独立したSMSデータセットを英語とアラビア語で使用し、それぞれが半構造化された銀行取引情報を持っている。
わずか30のラベル付きサンプルにアクセスすることで、我々のモデルは、英語からアラビア語までの商人、金額、その他の分野の認識を一般化することができる。
論文 参考訳(メタデータ) (2023-07-16T00:45:42Z) - h2oGPT: Democratizing Large Language Models [1.8043055303852882]
我々は、大規模言語モデルの作成と使用のためのオープンソースのコードリポジトリであるh2oGPTを紹介します。
このプロジェクトの目的は、クローズドソースアプローチに対して、世界で最高のオープンソース代替品を作ることです。
論文 参考訳(メタデータ) (2023-06-13T22:19:53Z) - Chain-of-Thought Hub: A Continuous Effort to Measure Large Language
Models' Reasoning Performance [35.38549845444575]
Chain-of-Thought Hubは、大規模な言語モデルの多段階推論機能に関するオープンソースの評価スイートである。
提案するChain-of-Thought Hubは,大規模言語モデルの多段階推論機能に関するオープンソース評価スイートである。
論文 参考訳(メタデータ) (2023-05-26T23:46:42Z) - Language Models are General-Purpose Interfaces [109.45478241369655]
本稿では,様々な基礎モデルに対する汎用インタフェースとして言語モデルを提案する。
事前訓練されたエンコーダのコレクションは、様々なモダリティ(ビジョンや言語など)を知覚する
インタフェースとモジュールエンコーダを協調的に事前学習するための半因果言語モデリング手法を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:34:22Z) - A Survey of Knowledge-Intensive NLP with Pre-Trained Language Models [185.08295787309544]
我々は、事前訓練された言語モデルに基づく知識強化モデル(PLMKEs)の現在の進歩を要約することを目的としている。
本論では,3つの要素に関する議論に基づくPLMKEの課題について述べるとともに,NLP実践者にさらなる研究の道筋を示そうとしている。
論文 参考訳(メタデータ) (2022-02-17T17:17:43Z) - LAGOON: An Analysis Tool for Open Source Communities [7.3861897382622015]
LAGOONはオープンソースソフトウェア(OSS)コミュニティのエコシステムを理解するためのオープンソースプラットフォームである。
LAGOONはソースコードリポジトリ、イシュートラッカ、メーリングリスト、ウェブサイトからのコンテンツスクラップなど、いくつかの一般的なソースからアーティファクトを取り込みます。
OSSプロジェクトの完全な社会技術グラフの可視化と探索のためのユーザインターフェースを提供する。
論文 参考訳(メタデータ) (2022-01-26T18:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。