論文の概要: $C^2$: Scalable Auto-Feedback for LLM-based Chart Generation
- arxiv url: http://arxiv.org/abs/2410.18652v1
- Date: Thu, 24 Oct 2024 11:32:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 12:51:50.840088
- Title: $C^2$: Scalable Auto-Feedback for LLM-based Chart Generation
- Title(参考訳): $C^2$: LLMベースのチャート生成のためのスケーラブルなオートフィードバック
- Authors: Woosung Koh, Jang Han Yoon, MinHyung Lee, Youngjin Song, Jaegwan Cho, Jaehyun Kang, Taehyeon Kim, Se-young Yun, Youngjae Yu, Bongshin Lee,
- Abstract要約: 参照不要な自動フィードバックジェネレータを導入し,人的介入のコストを削減した。
最初の実験では、回答者の74%が強く好んでおり、10%がフィードバック後の結果を好んだ。
ChartUIE-8Kは、クエリ、データセット、チャートタイプを増やすことで、データの多様性を大幅に改善する。
- 参考スコア(独自算出の注目度): 36.864917261567314
- License:
- Abstract: Generating high-quality charts with Large Language Models presents significant challenges due to limited data and the high cost of scaling through human curation. Instruction, data, and code triplets are scarce and expensive to manually curate as their creation demands technical expertise. To address this scalability issue, we introduce a reference-free automatic feedback generator, which eliminates the need for costly human intervention. Our novel framework, $C^2$, consists of (1) an automatic feedback provider (ChartAF) and (2) a diverse, reference-free dataset (ChartUIE-8K). Quantitative results are compelling: in our first experiment, 74% of respondents strongly preferred, and 10% preferred, the results after feedback. The second post-feedback experiment demonstrates that ChartAF outperforms nine baselines. Moreover, ChartUIE-8K significantly improves data diversity by increasing queries, datasets, and chart types by 5982%, 1936%, and 91%, respectively, over benchmarks. Finally, an LLM user study revealed that 94% of participants preferred ChartUIE-8K's queries, with 93% deeming them aligned with real-world use cases. Core contributions are available as open-source at an anonymized project site, with ample qualitative examples.
- Abstract(参考訳): 大規模言語モデルによる高品質なチャートの生成は、限られたデータと、人間のキュレーションによるスケーリングのコストが高いため、大きな課題となる。
インストラクション、データ、コードトリプレットは、作成が技術的専門知識を必要とするため、手作業でキュレーションを行うには不十分で費用がかかる。
このスケーラビリティ問題に対処するため、我々は、人的介入を犠牲にすることなく、参照不要な自動フィードバックジェネレータを導入する。
我々の新しいフレームワークである$C^2$は、(1)自動フィードバックプロバイダ(ChartAF)と(2)多様な参照なしデータセット(ChartUIE-8K)で構成されています。
最初の実験では、回答者の74%が強く好んでおり、10%がフィードバック後の結果を好んでいます。
2回目のフィードバック実験は、ChartAFが9つのベースラインを上回っていることを示している。
さらに、ChartUIE-8Kは、ベンチマークよりもクエリ、データセット、チャートタイプを5982%、1936%、91%増やすことで、データの多様性を著しく改善する。
最後に、LLMユーザ調査では、参加者の94%がChartUIE-8Kのクエリを好んでおり、93%が実際のユースケースに適合していると見積もっている。
コアコントリビューションは、匿名のプロジェクトサイトでオープンソースとして利用できる。
関連論文リスト
- CharXiv: Charting Gaps in Realistic Chart Understanding in Multimodal LLMs [62.84082370758761]
CharXivは、arXiv論文の2,323のチャートを含む総合的な評価スイートである。
品質を確保するために、すべてのチャートと質問は、人間の専門家によって手書きされ、キュレーションされ、検証されます。
その結果、最強のプロプライエタリモデルの推論スキルの間に、かなり過小評価されていたギャップが明らかとなった。
論文 参考訳(メタデータ) (2024-06-26T17:50:11Z) - GraphEval36K: Benchmarking Coding and Reasoning Capabilities of Large Language Models on Graph Datasets [19.329274124787858]
GraphEval36Kは、40のグラフコーディング問題と36,900のテストケースからなる、最初の包括的なグラフデータセットである。
我々のデータセットは8つのプライマリカテゴリと4つのサブカテゴリに分類され、異なるタイプのグラフに対する徹底的な評価が保証される。
評価フレームワークのユーザビリティ向上のために,構造化記号分解(SSD)を提案する。
SSDはGPT-4, GPT-4o, Gemini-Pro, Claude-3-Sonnetの平均通過速度を8.38%, 6.78%, 29.28%, 25.28%改善する。
論文 参考訳(メタデータ) (2024-06-23T18:01:56Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - Knowledge Graph Driven Recommendation System Algorithm [9.952420935326893]
KGLNと呼ばれる新しいグラフニューラルネットワークに基づくレコメンデーションモデルを提案する。
まず、グラフ内の個々のノード特徴をマージし、隣り合うエンティティの集約重みを調整するために、単層ニューラルネットワークを使用します。
モデルは、イテレーションを通じて単一のレイヤから複数のレイヤへと進化し、エンティティが広範囲にわたるマルチオーダー関連エンティティ情報にアクセスできるようにする。
論文 参考訳(メタデータ) (2023-12-01T21:50:43Z) - Tool-Augmented Reward Modeling [58.381678612409]
本稿では,外部環境へのアクセスによるRMの強化により,制約に対処するツール拡張された嗜好モデリング手法であるThemisを提案する。
我々の研究は、外部ツールをRMに統合し、様々な外部ソースとの相互作用を可能にすることを目的としている。
人間の評価では、テミスで訓練されたRLHFはベースラインと比較して平均32%の勝利率を得る。
論文 参考訳(メタデータ) (2023-10-02T09:47:40Z) - KERMIT: Knowledge Graph Completion of Enhanced Relation Modeling with Inverse Transformation [19.31783654838732]
大規模言語モデルを用いてコヒーレントな記述を生成し,クエリと回答のセマンティックなギャップを埋める。
また、逆関係を利用して対称グラフを作成し、KGCのための強化トレーニングサンプルを提供する。
提案手法は,WN18RRではHit@1が4.2%,FB15k-237ではHit@3が3.4%向上し,優れた性能を示した。
論文 参考訳(メタデータ) (2023-09-26T09:03:25Z) - SciGraphQA: A Large-Scale Synthetic Multi-Turn Question-Answering
Dataset for Scientific Graphs [3.393948745711056]
SciGraphQA(SciGraphQA)は,学術グラフに関連する多ターン質問応答データセットである。
ChartVQAよりも13倍大きい。
論文 参考訳(メタデータ) (2023-08-07T07:03:49Z) - Challenging the Myth of Graph Collaborative Filtering: a Reasoned and Reproducibility-driven Analysis [50.972595036856035]
本稿では,6つの人気グラフと最近のグラフ推薦モデルの結果を再現するコードを提案する。
これらのグラフモデルと従来の協調フィルタリングモデルを比較する。
ユーザの近所からの情報フローを調べることにより,データセット構造における内在的特徴にどのようなモデルが影響するかを同定することを目的とする。
論文 参考訳(メタデータ) (2023-08-01T09:31:44Z) - Progressive-Hint Prompting Improves Reasoning in Large Language Models [63.98629132836499]
本稿では,プログレッシブ・ヒント・プロンプト(PHP)と呼ばれる新しいプロンプト手法を提案する。
事前に生成された回答をヒントとして使用することで、ユーザとLLM(Large Language Models)間の自動多元的対話を可能にする。
我々は7つのベンチマークで広範囲かつ包括的な実験を行った。その結果、PHPは高い効率を保ちながら精度を大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-04-19T16:29:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。