論文の概要: T-pro 2.0: An Efficient Russian Hybrid-Reasoning Model and Playground
- arxiv url: http://arxiv.org/abs/2512.10430v1
- Date: Thu, 11 Dec 2025 08:40:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.287851
- Title: T-pro 2.0: An Efficient Russian Hybrid-Reasoning Model and Playground
- Title(参考訳): T-pro 2.0: 効率的なロシアのハイブリッド推論モデルとプレイグラウンド
- Authors: Dmitrii Stoianov, Danil Taranets, Olga Tsymboi, Ramil Latypov, Almaz Dautov, Vladislav Kruglikov, Nikita Surkov, German Abramov, Pavel Gein, Dmitry Abulkhanov, Mikhail Gashkov, Viktor Zelenkovskiy, Artem Batalov, Aleksandr Medvedev, Anatolii Potapov,
- Abstract要約: T-pro 2.0は、ハイブリッド推論と効率的な推論のためのオープンウェイトなロシアのLLMである。
モデル重み、T-Wix 500k命令コーパス、T-Math推論ベンチマーク、およびHugging FaceのERGLE重みをリリースする。
これらのリソースにより、ユーザーはロシア語の推論を研究し、モデルと推論パイプラインの両方を拡張したり適応したりすることができる。
- 参考スコア(独自算出の注目度): 28.68769740780212
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce T-pro 2.0, an open-weight Russian LLM for hybrid reasoning and efficient inference. The model supports direct answering and reasoning-trace generation, using a Cyrillic-dense tokenizer and an adapted EAGLE speculative-decoding pipeline to reduce latency. To enable reproducible and extensible research, we release the model weights, the T-Wix 500k instruction corpus, the T-Math reasoning benchmark, and the EAGLE weights on Hugging Face. These resources allow users to study Russian-language reasoning and to extend or adapt both the model and the inference pipeline. A public web demo exposes reasoning and non-reasoning modes and illustrates the speedups achieved by our inference stack across domains. T-pro 2.0 thus serves as an accessible open system for building and evaluating efficient, practical Russian LLM applications.
- Abstract(参考訳): 我々は、ハイブリッド推論と効率的な推論のためのオープンウェイトなロシアのLLMであるT-pro 2.0を紹介する。
このモデルは、Cyrillic-denseトークンライザと適応型EAGLE投機的デコードパイプラインを使用して、直接応答と推論トレースの生成をサポートする。
再現性および拡張性のある研究を可能にするため、モデルウェイト、T-Wix 500k命令コーパス、T-Math推論ベンチマーク、およびHugging FaceのERGLE重みをリリースする。
これらのリソースにより、ユーザーはロシア語の推論を研究し、モデルと推論パイプラインの両方を拡張したり適応したりすることができる。
パブリックWebデモでは、推論モードと非推論モードが公開され、ドメイン間の推論スタックによって達成されるスピードアップが示されています。
したがって、T-pro 2.0は、効率よく実用的なロシアのLLMアプリケーションを構築し評価するためのアクセス可能なオープンシステムとして機能する。
関連論文リスト
- Model Whisper: Steering Vectors Unlock Large Language Models' Potential in Test-time [6.741914038966904]
テスト時間ステアリングベクトル(TTSV, Test-Time Steering Vectors)という軽量なコンポーネントを導入し、モデルパラメータを完全に凍結したまま入力にプリコンパイルする。
TTSVは軽量かつ高効率で最適化できるので、プラグインとプレイの強化になる。
提案手法は, 操舵ベクトルを多種多様なタスクにまたがって高度に伝達可能であることを示すとともに, 堅牢な一般化を示す。
論文 参考訳(メタデータ) (2025-12-04T12:36:16Z) - Saber: An Efficient Sampling with Adaptive Acceleration and Backtracking Enhanced Remasking for Diffusion Language Model [98.35868970993232]
拡散言語モデル(DLM)は、支配的な自己回帰パラダイムに代わる強力で有望な選択肢として現れています。
コード生成における推論速度と出力品質の向上を実現するために,適応加速度を用いた効率的なサンプリングとバックトラック強化リマッシング(セイバー)を導入する。
論文 参考訳(メタデータ) (2025-10-20T23:38:12Z) - Revolutionizing Reinforcement Learning Framework for Diffusion Large Language Models [49.911784762244814]
TraceRLは拡散言語モデル(DLM)のための軌道対応強化学習フレームワークである
我々は最先端の拡散言語モデル、すなわち TraDo を導出する。
TraDo-8B-InstructはQwen2.5-7B-Instructで6.1%、Llama3.1-8B-Instructで51.3%の精度向上を実現している。
論文 参考訳(メタデータ) (2025-09-08T17:58:06Z) - gpt-oss-120b & gpt-oss-20b Model Card [128.07668730833967]
精度と推論コストのフロンティアを推し進める2つのオープンウェイト推論モデルを提案する。
モデルは効率的な混合型変圧器アーキテクチャを使用しており、大規模な蒸留と強化学習を用いて訓練されている。
論文 参考訳(メタデータ) (2025-08-08T19:24:38Z) - Spectra 1.1: Scaling Laws and Efficient Inference for Ternary Language Models [12.98064202867316]
大規模言語モデル(LLM)は、研究や産業アプリケーションでますます使われているが、推論効率は依然として大きな課題である。
本稿では,メモリ要求を大幅に低減するために,量子化学習を用いた3次言語モデル(TriLM)について検討する。
最大1.2兆のトークンでトレーニングされたTriLMのオープンスイートであるSpectra-1.1を導入する。
論文 参考訳(メタデータ) (2025-06-28T22:13:43Z) - U2++ MoE: Scaling 4.7x parameters with minimal impact on RTF [10.81723269312202]
Mixture-of-Experts (MoE) は、より大きく、より有能な言語モデルへのエネルギー効率の良い経路として提案されている。
提案したモデルを大規模インナーソースデータセット(160k時間)でベンチマークする。
論文 参考訳(メタデータ) (2024-04-25T08:34:21Z) - David helps Goliath: Inference-Time Collaboration Between Small
Specialized and Large General Diffusion LMs [49.822063966687175]
拡散に基づく言語モデルは、自己回帰型LMに代わる有望な選択肢として浮上している。
我々は最近提案した拡散モデルSSD-LMを0.4Bから13Bパラメータに拡張する方法を提案する。
SSD-2は、個々のユーザがカスタマイズしてデプロイできる100倍の小型モデルで、新しいアンサンブルを促進する。
論文 参考訳(メタデータ) (2023-05-24T06:22:14Z) - AutoBERT-Zero: Evolving BERT Backbone from Scratch [94.89102524181986]
そこで本稿では,提案するハイブリッドバックボーンアーキテクチャを自動検索するOP-NASアルゴリズムを提案する。
提案するOP-NASの効率を向上させるために,探索アルゴリズムと候補モデルの評価を最適化する。
実験の結果、検索されたアーキテクチャ(AutoBERT-Zero)は、様々な下流タスクにおいてBERTとそのバリエーションの異なるモデル容量を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-07-15T16:46:01Z) - REST: Robust and Efficient Neural Networks for Sleep Monitoring in the
Wild [62.36144064259933]
ニューラルネットワークの逆トレーニングとLipschitz定数の制御を通じて、両問題に同時に対処する新しい方法であるRESTを提案する。
私たちは、RESTがノイズの存在下で、オリジナルのフルサイズのモデルを大幅に上回る、ロバストで効率的なモデルを生成することを実証しています。
これらのモデルをスマートフォン上のAndroidアプリケーションにデプロイすることにより、RESTによってモデルが最大17倍のエネルギー削減と9倍高速な推論を達成することができることを定量的に観察する。
論文 参考訳(メタデータ) (2020-01-29T17:23:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。