論文の概要: Fengshenbang 1.0: Being the Foundation of Chinese Cognitive Intelligence
- arxiv url: http://arxiv.org/abs/2209.02970v3
- Date: Thu, 30 Mar 2023 14:22:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 18:10:37.562586
- Title: Fengshenbang 1.0: Being the Foundation of Chinese Cognitive Intelligence
- Title(参考訳): Fengshenbang 1.0:中国認知知の基盤になる
- Authors: Jiaxing Zhang, Ruyi Gan, Junjie Wang, Yuxiang Zhang, Lin Zhang, Ping
Yang, Xinyu Gao, Ziwei Wu, Xiaoqun Dong, Junqing He, Jianheng Zhuo, Qi Yang,
Yongfeng Huang, Xiayu Li, Yanghan Wu, Junyu Lu, Xinyu Zhu, Weifeng Chen, Ting
Han, Kunhao Pan, Rui Wang, Hao Wang, Xiaojun Wu, Zhongshen Zeng, Chongpei
Chen
- Abstract要約: 我々は,認知コンピューティング・自然言語研究センター(CCNL)が主導するFengshenbangというオープンソースプロジェクトを紹介した。
私たちのプロジェクトには、大規模な事前トレーニングモデル、ユーザフレンドリなAPI、ベンチマーク、データセットなど、包括的な機能があります。
オープンソースロードマップであるFengshenbangは、中国の事前訓練された大規模モデルのオープンソースコミュニティを再評価することを目的としている。
- 参考スコア(独自算出の注目度): 34.483833039100126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, foundation models become one of fundamental infrastructures in
artificial intelligence, paving ways to the general intelligence. However, the
reality presents two urgent challenges: existing foundation models are
dominated by the English-language community; users are often given limited
resources and thus cannot always use foundation models. To support the
development of the Chinese-language community, we introduce an open-source
project, called Fengshenbang, which leads by the research center for Cognitive
Computing and Natural Language (CCNL). Our project has comprehensive
capabilities, including large pre-trained models, user-friendly APIs,
benchmarks, datasets, and others. We wrap all these in three sub-projects: the
Fengshenbang Model, the Fengshen Framework, and the Fengshen Benchmark. An
open-source roadmap, Fengshenbang, aims to re-evaluate the open-source
community of Chinese pre-trained large-scale models, prompting the development
of the entire Chinese large-scale model community. We also want to build a
user-centered open-source ecosystem to allow individuals to access the desired
models to match their computing resources. Furthermore, we invite companies,
colleges, and research institutions to collaborate with us to build the
large-scale open-source model-based ecosystem. We hope that this project will
be the foundation of Chinese cognitive intelligence.
- Abstract(参考訳): 今日では、基礎モデルは人工知能の基本的な基盤の一つとなり、一般の知性への道を開いた。
既存の基礎モデルは英語コミュニティが支配しており、ユーザーは限られたリソースを与えられることが多く、ファンデーションモデルを使うことはできない。
中国語コミュニティの発展を支援するために,認知コンピューティング・自然言語研究センター(CCNL)が主導するFengshenbangというオープンソースプロジェクトを紹介した。
私たちのプロジェクトには、大規模な事前トレーニングモデル、ユーザフレンドリなAPI、ベンチマーク、データセットなど、包括的な機能があります。
これらすべてを、fengshenbangモデル、fengshenフレームワーク、fengshenベンチマークという3つのサブプロジェクトにまとめています。
オープンソースロードマップであるFengshenbangは、中国の事前訓練された大規模モデルのオープンソースコミュニティを再評価することを目的としている。
また、ユーザ中心のオープンソースエコシステムを構築して、個人が自分のコンピューティングリソースに合わせて、望ましいモデルにアクセスできるようにしたいと考えています。
さらに私たちは,企業や大学,研究機関に対して,大規模なオープンソースモデルベースのエコシステムを構築するための協力を求めています。
このプロジェクトが中国の認知知能の基礎になることを願っている。
関連論文リスト
- Steel-LLM:From Scratch to Open Source -- A Personal Journey in Building a Chinese-Centric LLM [47.64519989743434]
Steel-LLMは、高品質のオープンソースモデルを作成することを目的として、スクラッチから開発された中国語中心の言語モデルである。
本稿では、データ収集、モデル設計、トレーニング方法論、その過程で遭遇した課題など、プロジェクトの主要なコントリビューションについて包括的に要約する。
論文 参考訳(メタデータ) (2025-02-10T16:31:37Z) - Darkit: A User-Friendly Software Toolkit for Spiking Large Language Model [50.37090759139591]
大規模言語モデル(LLM)は、数十億のパラメータからなる様々な実践的応用に広く応用されている。
人間の脳は、生物工学的なスパイキング機構を使って、エネルギー消費を大幅に削減しながら、同じ仕事をこなすことができる。
私たちはDarwinKit(Darkit)という名のソフトウェアツールキットをリリースし、脳にインスパイアされた大きな言語モデルの採用を加速しています。
論文 参考訳(メタデータ) (2024-12-20T07:50:08Z) - HunyuanVideo: A Systematic Framework For Large Video Generative Models [82.4392082688739]
HunyuanVideoは、革新的なオープンソースのビデオファンデーションモデルだ。
データキュレーション、高度なアーキテクチャ設計、プログレッシブモデルスケーリング、トレーニングが組み込まれている。
その結果,13億以上のパラメータを持つビデオ生成モデルの訓練に成功した。
論文 参考訳(メタデータ) (2024-12-03T23:52:37Z) - CMULAB: An Open-Source Framework for Training and Deployment of Natural Language Processing Models [59.91221728187576]
本稿では,NLPモデルのモデル展開と連続的なヒューマン・イン・ザ・ループの微調整を簡単にするオープンソースフレームワークであるCMU言語バックエンドを紹介する。
CMULABは、マルチ言語モデルのパワーを活用して、音声認識、OCR、翻訳、構文解析などの既存のツールを新しい言語に迅速に適応し、拡張することができる。
論文 参考訳(メタデータ) (2024-04-03T02:21:46Z) - Arcee's MergeKit: A Toolkit for Merging Large Language Models [0.6374098147778188]
MergeKitは、任意のハードウェア上でモデルを効率的にマージするためのフレームワークである。
これまで、何千ものモデルがオープンソースコミュニティによってマージされてきた。
論文 参考訳(メタデータ) (2024-03-20T02:38:01Z) - OLMo: Accelerating the Science of Language Models [165.16277690540363]
言語モデル(LM)は、NLP研究と商用製品製品の両方で広く普及している。
商業的重要性が増すにつれ、最も強力なモデルは閉鎖され、プロプライエタリなインターフェースに遅れを取っている。
我々は、研究コミュニティが強力で真にオープンなLMにアクセスできることが不可欠であると信じている。
私たちは、言語モデルの科学的研究を可能にするために、競争力のある真にオープンな言語モデルであるOLMoを構築しました。
論文 参考訳(メタデータ) (2024-02-01T18:28:55Z) - Towards a Structural Equation Model of Open Source Blockchain Software
Health [0.0]
この研究は探索的因子分析を用いて、一般大衆の関心やソフトウェアの人気を表す潜在構造を特定する。
私たちはGitHubリポジトリでスター、フォーク、テキストの言及が組み合わさっているのに対して、堅牢性のための第2の要因は臨界スコアで構成されていることに気付きました。
ソフトウェアヘルスの構造モデルが提案され、一般の関心が開発者のエンゲージメントに肯定的な影響を与え、ソフトウェアの堅牢性を肯定的に予測する。
論文 参考訳(メタデータ) (2023-10-31T08:47:41Z) - Chain-of-Thought Hub: A Continuous Effort to Measure Large Language
Models' Reasoning Performance [35.38549845444575]
Chain-of-Thought Hubは、大規模な言語モデルの多段階推論機能に関するオープンソースの評価スイートである。
提案するChain-of-Thought Hubは,大規模言語モデルの多段階推論機能に関するオープンソース評価スイートである。
論文 参考訳(メタデータ) (2023-05-26T23:46:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。