論文の概要: Can We Improve Educational Diagram Generation with In-Context Examples? Not if a Hallucination Spoils the Bunch
- arxiv url: http://arxiv.org/abs/2601.20476v1
- Date: Wed, 28 Jan 2026 10:45:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.899164
- Title: Can We Improve Educational Diagram Generation with In-Context Examples? Not if a Hallucination Spoils the Bunch
- Title(参考訳): In-Context例による教育用ダイアグラム生成の改善は可能か?
- Authors: Evanfiya Logacheva, Arto Hellas, Tsvetomila Mihaylova, Juha Sorva, Ava Heinonen, Juho Leinonen,
- Abstract要約: 本研究では、RSTに基づく文脈内例を用いた新しい図形コード生成手法を提案する。
提案手法は,論理的構造,接続性,レイアウト美学,AI幻覚のために,大規模言語モデル(LLM)で生成した150の図をコンピュータサイエンス教育者によって評価した。
- 参考スコア(独自算出の注目度): 3.430175346274554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative artificial intelligence (AI) has found a widespread use in computing education; at the same time, quality of generated materials raises concerns among educators and students. This study addresses this issue by introducing a novel method for diagram code generation with in-context examples based on the Rhetorical Structure Theory (RST), which aims to improve diagram generation by aligning models' output with user expectations. Our approach is evaluated by computer science educators, who assessed 150 diagrams generated with large language models (LLMs) for logical organization, connectivity, layout aesthetic, and AI hallucination. The assessment dataset is additionally investigated for its utility in automated diagram evaluation. The preliminary results suggest that our method decreases the rate of factual hallucination and improves diagram faithfulness to provided context; however, due to LLMs' stochasticity, the quality of the generated diagrams varies. Additionally, we present an in-depth analysis and discussion on the connection between AI hallucination and the quality of generated diagrams, which reveals that text contexts of higher complexity lead to higher rates of hallucination and LLMs often fail to detect mistakes in their output.
- Abstract(参考訳): 生成的人工知能(AI)は、コンピュータ教育において広く使われており、同時に、生成された材料の品質は、教育者や学生の間で懸念を喚起している。
本研究では,モデル出力をユーザ期待に合わせることで図形生成を改善することを目的としたRST(Rhetorical Structure Theory)に基づく,文脈内例を用いた図形コード生成手法を導入することにより,この問題に対処する。
提案手法は,論理的構造,接続性,レイアウト美学,AI幻覚のために,大規模言語モデル(LLM)で生成した150の図をコンピュータサイエンス教育者によって評価した。
評価データセットは, 自動図形評価における有用性についても検討した。
予備的な結果は,本手法が現実の幻覚率を低下させ,与えられた文脈に対する図の忠実度を向上させることを示唆するが,LLMの確率性のため,生成した図の質は異なる。
さらに,AI幻覚と生成図の品質の関連性について,より詳細な分析と議論を行い,高複雑性のテキストコンテキストが幻覚の出現率を高め,LCMが出力の誤りを検出できないことを明らかにする。
関連論文リスト
- Automatic Question Generation for Intuitive Learning Utilizing Causal Graph Guided Chain of Thought Reasoning [8.587087233323038]
因果グラフ誘導連鎖推論とマルチエージェント言語モデルを組み合わせた新しいフレームワークを提案する。
このアプローチは、正確で意味があり、カリキュラムに準拠した質問の生成を保証する。
実験の結果,基準法に比べて70%品質が向上した。
論文 参考訳(メタデータ) (2026-01-02T08:49:58Z) - Detecting Hallucinations in Graph Retrieval-Augmented Generation via Attention Patterns and Semantic Alignment [36.45654492179688]
GraphRAG(Graph-based Retrieval-Augmented Generation)は大規模言語モデル(LLM)を強化する
LLMは、入力中の関係やトポロジ的な情報を解釈するのに苦労し、その結果、得られた知識と矛盾する幻覚をもたらす。
本稿では,最短パス三重項の過度信頼度を計測するパス信頼度度(PRD)と,モデルの内部表現が抽出した知識とどのように一致しているかを評価するセマンティックアライメントスコア(SAS)の2つの軽量解釈可能性指標を提案する。
論文 参考訳(メタデータ) (2025-12-09T21:52:50Z) - DiagramEval: Evaluating LLM-Generated Diagrams via Graphs [25.040934047462112]
有望な方向性は、SVGとしてテキスト形式で直接デモダイアグラムを生成することである、と我々は主張する。
大規模言語モデルにより生成された実演図の質を評価するために設計された新しい評価指標であるDiagramEvalを提案する。
論文 参考訳(メタデータ) (2025-10-29T17:56:17Z) - Foundations and Models in Modern Computer Vision: Key Building Blocks in Landmark Architectures [34.542592986038265]
本報告では,コンピュータビジョンにおけるキーデザインパターンの進化を,影響力のある6つの論文から分析する。
本稿では,残差接続を導入したResNetについて概説する。
画像パッチのシーケンスにトランスフォーマーアーキテクチャを適用し,新たなパラダイムを確立したビジョントランスフォーマー(ViT)について検討する。
論文 参考訳(メタデータ) (2025-07-31T09:08:11Z) - Towards Long Context Hallucination Detection [49.195854802543714]
大規模言語モデル(LLM)は、様々なタスクで顕著なパフォーマンスを示している。
それらは文脈の幻覚に傾向があり、与えられた文脈に不一致または矛盾した情報を生成する。
本稿では,BERTのような事前学習したエンコーダモデルを用いて,長期のコンテキストを処理し,文脈の幻覚を効果的に検出するアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-04-28T03:47:05Z) - Multi-Modal Prompt Learning on Blind Image Quality Assessment [65.0676908930946]
画像品質評価(IQA)モデルは意味情報から大きな恩恵を受け、異なる種類のオブジェクトを明瞭に扱うことができる。
十分な注釈付きデータが不足している従来の手法では、セマンティックな認識を得るために、CLIPイメージテキスト事前学習モデルをバックボーンとして使用していた。
近年のアプローチでは、このミスマッチに即時技術を使って対処する試みがあるが、これらの解決策には欠点がある。
本稿では、IQAのための革新的なマルチモーダルプロンプトベースの手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:45:32Z) - Dynamic Graph Enhanced Contrastive Learning for Chest X-ray Report
Generation [92.73584302508907]
コントラスト学習を用いた医療レポート作成を支援するために,動的構造とノードを持つ知識グラフを提案する。
詳しくは、グラフの基本構造は一般知識から事前構築される。
各イメージ機能は、レポート生成のためにデコーダモジュールに入力する前に、独自の更新グラフに統合される。
論文 参考訳(メタデータ) (2023-03-18T03:53:43Z) - GraphMAE: Self-Supervised Masked Graph Autoencoders [52.06140191214428]
本稿では,自己教師付きグラフ学習における課題を軽減するマスク付きグラフオートエンコーダGraphMAEを提案する。
我々は3つの異なるグラフ学習タスクに対して、21の公開データセットに関する広範な実験を行った。
その結果,GraphMAEはグラフオートエンコーダであり,設計に注意を払っている。
論文 参考訳(メタデータ) (2022-05-22T11:57:08Z) - Entity-Conditioned Question Generation for Robust Attention Distribution
in Neural Information Retrieval [51.53892300802014]
教師付きニューラル情報検索モデルでは,通過トークンよりも疎注意パターンを学習することが困難であることを示す。
目的とする新しい合成データ生成手法を用いて、与えられた通路内の全てのエンティティに対して、より均一で堅牢な参加をニューラルIRに教える。
論文 参考訳(メタデータ) (2022-04-24T22:36:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。