論文の概要: Sabiá-4 Technical Report
- arxiv url: http://arxiv.org/abs/2603.10213v1
- Date: Tue, 10 Mar 2026 20:27:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.680505
- Title: Sabiá-4 Technical Report
- Title(参考訳): Sabiá-4テクニカルレポート
- Authors: Thiago Laitz, Thales Sales Almeida, Hugo Abonizio, Roseval Malaquias Junior, Giovana Kerche Bonás, Marcos Piau, Celio Larcher, Ramon Pires, Rodrigo Nogueira,
- Abstract要約: 本報告では,ブラジルポルトガル語に焦点を当てた新世代のポルトガル語モデルであるSabi-4とSabiazinho-4について述べる。
モデルは4段階のトレーニングパイプラインを通じて開発され、ポルトガルとブラジルの法定コーパスでの事前トレーニング、128Kトークンへの長期コンテキスト拡張、チャット、コード、法的タスク、関数呼び出し、リフレクションアライメントといった命令データに対する微調整が続けられた。
ブラジルのポルトガル語における会話能力、ブラジルの法律の知識、長期コンテキスト理解、指導のフォロー、標準化された試験、ツールの使用やWebナビゲーションを含むエージェント能力の6つのカテゴリでモデルを評価した。
- 参考スコア(独自算出の注目度): 8.678622777553267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This technical report presents Sabiá-4 and Sabiazinho-4, a new generation of Portuguese language models with a focus on Brazilian Portuguese language. The models were developed through a four-stage training pipeline: continued pre-training on Portuguese and Brazilian legal corpora, long-context extension to 128K tokens, supervised fine-tuning on instruction data spanning chat, code, legal tasks, and function calling, and preference alignment. We evaluate the models on six benchmark categories: conversational capabilities in Brazilian Portuguese, knowledge of Brazilian legislation, long-context understanding, instruction following, standardized exams, and agentic capabilities including tool use and web navigation. Results show that Sabiá-4 and Sabiazinho-4 achieve a favorable cost-performance trade-off compared to other models, positioning them in the upper-left region of the pricing-accuracy chart. The models show improvements over previous generations in legal document drafting, multi-turn dialogue quality, and agentic task completion.
- Abstract(参考訳): この技術報告では、ブラジルポルトガル語に焦点を当てた新世代のポルトガル語モデルであるSabiá-4とSabiazinho-4が紹介されている。
モデルは4段階のトレーニングパイプラインを通じて開発され、ポルトガルとブラジルの法定コーパスでの事前トレーニング、128Kトークンへの長期コンテキスト拡張、チャット、コード、法的タスク、関数呼び出し、リフレクションアライメントといった命令データに対する微調整が続けられた。
ブラジルのポルトガル語における会話能力,ブラジルの法律の知識,長期コンテキスト理解,指示の追従,標準化試験,ツール使用やWebナビゲーションを含むエージェント能力の6つのカテゴリでモデルを評価した。
その結果,Sabiá-4とSabiazinho-4は,他のモデルと比較して良好なコスト-パフォーマンスのトレードオフを実現し,価格-精度チャートの左上の領域に位置づけた。
これらのモデルは、法律文書の草案作成、多ターン対話品質、エージェントタスク完了における過去の世代よりも改善されている。
関連論文リスト
- MEL: Legal Spanish Language Model [0.3651422140724638]
本稿では,XLM-RoBERTa-largeに基づく法的言語モデルであるMELの開発と評価について述べる。
評価ベンチマークは、法的スペイン語を理解する上で、ベースラインモデルよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2025-01-27T12:50:10Z) - Centurio: On Drivers of Multilingual Ability of Large Vision-Language Model [66.17354128553244]
多くのLVLM(Large Vision-Language Models)は、主に英語のデータに基づいて訓練されている。
異なる言語群に対する学習がいかに異なるかを検討する。
私たちはCenturio(100言語LVLM)をトレーニングし、14のタスクと56の言語を対象とした評価で最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2025-01-09T10:26:14Z) - From Brazilian Portuguese to European Portuguese [2.048226951354646]
ブラジル・ポルトガル語とヨーロッパ・ポルトガル語は同じ言語の2つの変種である。
2つの変種間での資源の入手にはかなりの不均衡がある。
この不平等は、ヨーロッパのポルトガル語話者が利用できる翻訳サービスの質に影響を与える可能性がある。
論文 参考訳(メタデータ) (2024-08-14T10:58:48Z) - A Novel Cartography-Based Curriculum Learning Method Applied on RoNLI: The First Romanian Natural Language Inference Corpus [71.77214818319054]
自然言語推論は自然言語理解のプロキシである。
ルーマニア語のNLIコーパスは公開されていない。
58Kの訓練文対からなるルーマニア初のNLIコーパス(RoNLI)を紹介する。
論文 参考訳(メタデータ) (2024-05-20T08:41:15Z) - Sabiá-2: A New Generation of Portuguese Large Language Models [13.549498237473223]
ポルトガル語のテキストで訓練された大規模言語モデルのファミリーであるSabi'a-2を紹介する。
モデルはブラジルの大学へのエントリーレベルテストを含む様々な試験で評価される。
サービア-2 ミディアムは、試験64点中23点でGPT-4の成績を上回り、試験64点中58点でGPT-3.5を上回った。
論文 参考訳(メタデータ) (2024-03-14T21:44:48Z) - Conversations in Galician: a Large Language Model for an
Underrepresented Language [2.433983268807517]
本稿では,ガリシア語に対する自然言語処理(NLP)を強化するために設計された2つの新しい資源を紹介する。
52,000の指示と実演を含むアルパカデータセットのガリシア適応について述べる。
データセットユーティリティのデモとして、元々モデルでサポートされていない言語であるGalicianで、LLaMA-7Bの理解と応答を微調整した。
論文 参考訳(メタデータ) (2023-11-07T08:52:28Z) - BUFFET: Benchmarking Large Language Models for Few-shot Cross-lingual
Transfer [81.5984433881309]
本稿では,54言語にまたがる15のタスクをシーケンス・ツー・シーケンス・フォーマットで統一するBUFFETを紹介する。
BUFFETは、数発の言語間移動のための厳密で公平な評価フレームワークを確立するように設計されている。
コンテクスト内言語間移動における改善の余地は極めて大きいことが判明した。
論文 参考訳(メタデータ) (2023-05-24T08:06:33Z) - Few-shot Learning with Multilingual Language Models [66.49496434282564]
多様な言語群をカバーするバランスの取れたコーパス上で,多言語の自動回帰言語モデルを訓練する。
私たちの最大のモデルは、20以上の代表言語で数ショットの学習において、新しい最先端の技術を定めています。
本稿では,モデルがどこで成功し,失敗するかを詳細に分析し,特に言語間の文脈内学習を可能にすることを示す。
論文 参考訳(メタデータ) (2021-12-20T16:52:35Z) - XTREME-R: Towards More Challenging and Nuanced Multilingual Evaluation [93.80733419450225]
本稿では,言語間移動学習の現状を解析する。
XTREMEを10種類の自然言語理解タスクからなるXTREME-Rに拡張する。
論文 参考訳(メタデータ) (2021-04-15T12:26:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。