論文の概要: Chart-RL: Generalized Chart Comprehension via Reinforcement Learning with Verifiable Rewards
- arxiv url: http://arxiv.org/abs/2603.06958v1
- Date: Sat, 07 Mar 2026 00:26:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:13.498582
- Title: Chart-RL: Generalized Chart Comprehension via Reinforcement Learning with Verifiable Rewards
- Title(参考訳): Chart-RL: 検証可能なリワードによる強化学習による一般化チャート理解
- Authors: Xin Zhang, Xingyu Li, Rongguang Wang, Ruizhong Miao, Zheng Wang, Dan Roth, Chenyang Li,
- Abstract要約: 本稿では,有効強化学習(RL)手法であるChart-RLを紹介する。
実験の結果,Chart-RLは異なるチャート理解ベンチマークで教師付き微調整(SFT)を一貫して上回っていることがわかった。
- 参考スコア(独自算出の注目度): 64.70559607526398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate chart comprehension represents a critical challenge in advancing multimodal learning systems, as extensive information is compressed into structured visual representations. However, existing vision-language models (VLMs) frequently struggle to generalize on unseen charts because it requires abstract, symbolic, and quantitative reasoning over structured visual representations. In this work, we introduce Chart-RL, an effective reinforcement learning (RL) method that employs mathematically verifiable rewards to enhance chart question answering in VLMs. Our experiments demonstrate that Chart-RL consistently outperforms supervised fine-tuning (SFT) across different chart understanding benchmarks, achieving relative improvements of 16.7% on MutlChartQA, and 11.5% on ChartInsights. We conduct robustness analysis, where Chart-RL achieves enhanced performance in 18 of 25 perturbed chart categories, demonstrating strong consistency and reasoning capability across visual variations. Furthermore, we demonstrate that task difficulty and inherent complexity are more critical than data quantity in RL training. For instance, Chart-RL trained on merely 10 complex chart-query examples significantly outperforms models trained on over 6,000 simple examples. Additionally, training on challenging reasoning tasks not only improves in-domain generalization relative to simpler tasks, but also facilitate strong transfer to out-of-domain visual mathematical problems.
- Abstract(参考訳): 正確なチャートの理解は、広範囲な情報が構造化された視覚表現に圧縮されるため、マルチモーダル学習システムを進める上で重要な課題である。
しかしながら、既存の視覚言語モデル(VLM)は、構造化された視覚表現よりも抽象的で象徴的で定量的な推論を必要とするため、目に見えないチャートを一般化するのにしばしば苦労する。
本稿では,実効強化学習(RL)手法であるChart-RLを紹介する。
我々の実験では、Chart-RLは異なるチャート理解ベンチマークで教師付き微調整(SFT)を一貫して上回り、MutlChartQAでは16.7%、ChartInsightsでは11.5%の相対的な改善を実現している。
頑健性解析を行い、25の摂動チャートカテゴリのうち18のチャートにおいて、Chart-RLが性能を向上し、視覚的変動にまたがる強い一貫性と推論能力を示す。
さらに、RLトレーニングにおいて、タスクの難易度と固有の複雑さがデータ量よりも重要であることを示す。
例えば、Chart-RLは、わずか10の複雑なチャートクエリの例でトレーニングされただけで、6000以上の単純な例でトレーニングされたモデルよりも大幅に優れています。
さらに、課題推論タスクのトレーニングは、単純なタスクに対してドメイン内の一般化を改善するだけでなく、領域外視覚数学的問題への強い移行を促進する。
関連論文リスト
- ChartM$^3$: A Multi-Stage Code-Driven Pipeline for Constructing Multi-Dimensional and Multi-Step Visual Reasoning Data in Chart Comprehension [15.798942458550515]
本研究では、視覚的推論データセットを生成するための自動多段階コード駆動パイプラインを提案する。
トレーニング用38Kチャートと142KQ&Aペアを含む多次元・多段階データセットであるChartM$3$と,高品質な評価サンプル2,871。
論文 参考訳(メタデータ) (2025-11-04T09:45:34Z) - BigCharts-R1: Enhanced Chart Reasoning with Visual Reinforcement Finetuning [51.472854950300416]
視覚的に多様なチャート画像を生成するデータセット生成パイプラインであるBigChartsを提案する。
純粋な合成データセットとは異なり、BigChartsは現実世界のデータを取り込んで、信頼性と視覚的多様性を保証する。
チャート推論に特化して設計された新たな報酬信号を導入することにより,モデルの堅牢性と一般化が促進される。
論文 参考訳(メタデータ) (2025-08-13T13:39:17Z) - Chart-R1: Chain-of-Thought Supervision and Reinforcement for Advanced Chart Reasoner [13.465161900684432]
本稿では,グラフ領域の視覚言語モデルであるChart-R1を紹介する。
Chart-R1をサポートするために、我々はまず、高品質なステップバイステップチャート推論データを生成する新しいプログラムデータ技術を提案する。
次に、ステップバイステップのチェーン監視を行うChart-COTと、数値的に感度の高い強化微調整を行うChart-RFTの2段階のトレーニング戦略を開発する。
論文 参考訳(メタデータ) (2025-07-21T11:22:17Z) - ChartSketcher: Reasoning with Multimodal Feedback and Reflection for Chart Understanding [18.67532755744138]
チャートの自動理解は、既存のマルチモーダルな大規模言語モデルに重大な課題をもたらす。
現在のステップバイステップ推論モデルは、主にチャート理解のためのテキストベースの論理的推論に焦点を当てている。
マルチモーダルフィードバック駆動のステップバイステップ推論手法であるChartSketcherを提案する。
論文 参考訳(メタデータ) (2025-05-25T10:21:29Z) - G1: Teaching LLMs to Reason on Graphs with Reinforcement Learning [58.73279333365234]
合成グラフ理論タスクにおける強化学習(RL)はグラフ推論能力を著しく拡張することができる。
RL on ErdosでG1はグラフ推論の大幅な改善を実現し、微調整された3BモデルはQwen2.5-72B-Instruct(24倍)よりも優れています。
我々の研究は、グラフ理論上のRLでLLMを微調整することで、強力なグラフ推論器を構築するための効率的でスケーラブルな経路を提供する。
論文 参考訳(メタデータ) (2025-05-24T04:33:41Z) - Disentangled Generative Graph Representation Learning [51.59824683232925]
本稿では,自己教師型学習フレームワークであるDiGGR(Disentangled Generative Graph Representation Learning)を紹介する。
潜伏要因を学習し、それをグラフマスクモデリングのガイドとして活用することを目的としている。
2つの異なるグラフ学習タスクのための11の公開データセットの実験は、DiGGRが従来よりも一貫して多くの自己教師付きメソッドを上回っていることを示している。
論文 参考訳(メタデータ) (2024-08-24T05:13:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。