論文の概要: GuardReasoner-Omni: A Reasoning-based Multi-modal Guardrail for Text, Image, and Video
- arxiv url: http://arxiv.org/abs/2602.03328v1
- Date: Tue, 03 Feb 2026 09:56:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.37549
- Title: GuardReasoner-Omni: A Reasoning-based Multi-modal Guardrail for Text, Image, and Video
- Title(参考訳): GuardReasoner-Omni:テキスト、画像、ビデオのための推論ベースのマルチモーダルガードレール
- Authors: Zhenhao Zhu, Yue Liu, Yanpei Guo, Wenjie Qu, Cancan Chen, Yufei He, Yibo Li, Yulin Chen, Tianyi Wu, Huiying Xu, Xinzhong Zhu, Jiaheng Zhang,
- Abstract要約: GuardReasoner-Omniは、テキスト、画像、ビデオデータを適度に扱うために設計されたガードレールモデルである。
これら3つのモードにまたがる148万のサンプルからなる総合的なトレーニングコーパスを構築した。
トレーニングパイプラインは、2段階のパラダイムに従って、決定を下す前に意図的にモデルにインセンティブを与えます。
- 参考スコア(独自算出の注目度): 38.35856368247741
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present GuardReasoner-Omni, a reasoning-based guardrail model designed to moderate text, image, and video data. First, we construct a comprehensive training corpus comprising 148k samples spanning these three modalities. Our training pipeline follows a two-stage paradigm to incentivize the model to deliberate before making decisions: (1) conducting SFT to cold-start the model with explicit reasoning capabilities and structural adherence; and (2) performing RL, incorporating an error-driven exploration reward to incentivize deeper reasoning on hard samples. We release a suite of models scaled at 2B and 4B parameters. Extensive experiments demonstrate that GuardReasoner-Omni achieves superior performance compared to existing state-of-the-art baselines across various guardrail benchmarks. Notably, GuardReasoner-Omni (2B) significantly surpasses the runner-up by 5.3% F1 score.
- Abstract(参考訳): GuardReasoner-Omniは、テキスト、画像、ビデオデータを適度に扱うために設計された、推論に基づくガードレールモデルである。
まず、これらの3つのモードにまたがる148万のサンプルからなる総合的なトレーニングコーパスを構築する。
トレーニングパイプラインは,(1)明確な推論能力と構造的拘束力でSFTを冷やし,(2)厳密な推論に深い推論を動機付けるために,エラー駆動探索報酬を組み込んだRLを実行する,という2段階のパラダイムに従って,意思決定を意図したモデルにインセンティブを与える。
2Bと4Bパラメータでスケールされたモデルのセットをリリースします。
大規模な実験により、GuardReasoner-Omniは、さまざまなガードレールベンチマークにおける既存の最先端ベースラインと比較して、優れたパフォーマンスを実現していることが示された。
特にガードレソナー・オムニ(2B)は5.3%のF1得点をはるかに上回っている。
関連論文リスト
- Nanbeige4-3B Technical Report: Exploring the Frontier of Small Language Models [23.832817775138675]
Nanbeige4-3Bは小型だが高性能な言語モデルである。
23Tの高品質トークンで事前訓練され、3000万以上の多様な命令に基づいて微調整され、小型言語モデルのスケーリング法則の境界を広げる。
論文 参考訳(メタデータ) (2025-12-06T03:36:27Z) - Apriel-1.5-15b-Thinker [19.19917266898226]
Apriel-1.5-15B-Thinkerは15ビリオンパラメータのオープンウェイトマルチモーダル推論モデルである。
厳格なスケールではなく、トレーニング設計によってフロンティアレベルのパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-10-01T17:29:35Z) - Advancing Multimodal Reasoning via Reinforcement Learning with Cold Start [24.244577648817188]
アハモーメント」パターンは強化学習(RL)の創発的特性に起因することが多い
本稿では,2段階アプローチによるマルチモーダル推論の強化に関する総合的研究について述べる。
実験の結果,この組み合わせはSFTのみの手法とRLのみの手法より一貫して優れていることがわかった。
論文 参考訳(メタデータ) (2025-05-28T13:21:38Z) - Overtrained Language Models Are Harder to Fine-Tune [64.44743256512237]
大規模言語モデルは、成長を続けるトークン予算に基づいて事前訓練されている。
事前トレーニングの拡張により、モデルを微調整しにくくなり、最終的なパフォーマンスが低下することを示した。
論文 参考訳(メタデータ) (2025-03-24T23:11:56Z) - R1-Zero's "Aha Moment" in Visual Reasoning on a 2B Non-SFT Model [70.77691645678804]
非SFT 2Bモデルのみを用いたマルチモーダル推論における創発的特性の再現に成功した最初の例を示す。
本モデルはCVBenchで59.47%の精度を達成し, ベースモデルを約30%, SFT設定を2%以上上回った。
さらに,RLとインストラクションモデルを用いてR1のような推論を行おうとする試みの失敗と知見を共有した。
論文 参考訳(メタデータ) (2025-03-07T04:21:47Z) - CodingTeachLLM: Empowering LLM's Coding Ability via AST Prior Knowledge [0.0]
我々は,コーディング学習用に設計された大規模言語モデル(LLM)であるCodingTeachLLMを紹介する。
本モデルは,学習知識の構造的分解と漸進的指導によるアウトプットを実現する。
当社のモデルは,オープンソースモデルと比較して,コード能力の最先端性も達成している。
論文 参考訳(メタデータ) (2024-03-13T05:38:39Z) - Mixture-of-Experts Meets Instruction Tuning:A Winning Combination for
Large Language Models [125.91897197446379]
MoEモデルは高密度モデルよりも命令チューニングの恩恵を受ける。
我々の最も強力なモデルであるFLAN-MOE-32Bは、4つのベンチマークタスクにおけるFLAN-PALM-62Bの性能を上回る。
論文 参考訳(メタデータ) (2023-05-24T04:22:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。