論文の概要: LLM Agents Implement an NLG System from Scratch: Building Interpretable Rule-Based RDF-to-Text Generators
- arxiv url: http://arxiv.org/abs/2512.18360v1
- Date: Sat, 20 Dec 2025 13:16:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.303484
- Title: LLM Agents Implement an NLG System from Scratch: Building Interpretable Rule-Based RDF-to-Text Generators
- Title(参考訳): LLM エージェントがスクラッチから NLG システムを実装する: 解釈可能なルールベースRDF-to-Text ジェネレータの構築
- Authors: Mateusz Lango, Ondřej Dušek,
- Abstract要約: RDF-to-text生成のための新しいニューロシンボリックフレームワークを提案する。
システムは完全に解釈可能で、教師付きトレーニングデータを必要としない。
- 参考スコア(独自算出の注目度): 3.4448178503887816
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel neurosymbolic framework for RDF-to-text generation, in which the model is "trained" through collaborative interactions among multiple LLM agents rather than traditional backpropagation. The LLM agents produce rule-based Python code for a generator for the given domain, based on RDF triples only, with no in-domain human reference texts. The resulting system is fully interpretable, requires no supervised training data, and generates text nearly instantaneously using only a single CPU. Our experiments on the WebNLG and OpenDialKG data show that outputs produced by our approach reduce hallucination, with only slight fluency penalties compared to finetuned or prompted language models
- Abstract(参考訳): 本稿では,従来のバックプロパゲーションではなく,複数のLDMエージェント間の協調的相互作用を通じてモデルを"訓練"する,RDF-to-text生成のための新しいニューロシンボリックフレームワークを提案する。
LLMエージェントは、所定のドメインのジェネレータに対してルールベースのPythonコードを生成する。
生成されたシステムは完全に解釈可能で、教師付きトレーニングデータを必要としない。
WebNLG および OpenDialKG データを用いた実験により,本手法により生成した出力は,微調整言語モデルや誘導言語モデルと比較してわずかに頻度の低い幻覚を減少させることが示された。
関連論文リスト
- Consistency Is the Key: Detecting Hallucinations in LLM Generated Text By Checking Inconsistencies About Key Facts [21.081815261690444]
大規模言語モデル(LLM)は、しばしば幻覚を生じさせ、現実の知識に根ざしていない事実的誤りのテキストを生成する。
これは、医療、金融、顧客サポートといった分野に深刻なリスクをもたらす。
外部知識ベースを活用できない効率的な検出手法であるCONFACTCHECKを紹介する。
論文 参考訳(メタデータ) (2025-11-15T14:33:02Z) - Large Language Models are Good Relational Learners [55.40941576497973]
本稿では,グラフニューラルネットワーク(GNN)に基づくエンコーダを用いて,大規模言語モデル(LLM)のための構造化リレーショナルプロンプトを生成する新しいアーキテクチャであるRel-LLMを紹介する。
従来のテキストベースのシリアライズ手法とは異なり,本手法はデータベース固有の関係構造を保ちながら,LLMが複雑なエンティティ関係を処理・推論することを可能にする。
論文 参考訳(メタデータ) (2025-06-06T04:07:55Z) - Leveraging Large Language Models for Building Interpretable Rule-Based Data-to-Text Systems [10.54430941755474]
そこで本研究では,大規模言語モデル(LLM)を用いて,完全に解釈可能なデータ・テキスト・システムを自動的に実装するシンプルなアプローチを提案する。
実行時に、単一のCPUのみを使用して、ニューラルネットワークが必要とする処理時間のごく一部でテキストを生成する。
論文 参考訳(メタデータ) (2025-02-28T00:23:55Z) - Idiosyncrasies in Large Language Models [54.26923012617675]
大規模言語モデル(LLM)における慣用句の公開と研究
LLM生成テキストへの微調整テキスト埋め込みモデルにより,優れた分類精度が得られることがわかった。
我々はLLMを審査員として利用し、各モデルの慣用句の詳細かつオープンな記述を生成する。
論文 参考訳(メタデータ) (2025-02-17T18:59:02Z) - Who Wrote This? The Key to Zero-Shot LLM-Generated Text Detection Is GECScore [51.65730053591696]
我々は,人文テキストがLLM生成テキストよりも文法的誤りを多く含んでいるという観察に基づく,シンプルで効果的なブラックボックスゼロショット検出手法を提案する。
実験結果から,本手法はゼロショット法や教師あり手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-05-07T12:57:01Z) - A Simple yet Efficient Ensemble Approach for AI-generated Text Detection [0.5840089113969194]
大規模言語モデル(LLM)は、人間の文章によく似たテキストを生成する際、顕著な能力を示した。
人工的に生成されたテキストと人間が作成したテキストを区別できる自動化アプローチを構築することが不可欠である。
本稿では,複数の構成 LLM からの予測をまとめて,シンプルで効率的な解を提案する。
論文 参考訳(メタデータ) (2023-11-06T13:11:02Z) - Critic-Driven Decoding for Mitigating Hallucinations in Data-to-text
Generation [5.304395026626743]
入力に埋もれていないテキストの幻覚は、ニューラルネットワークによるテキスト生成においてよく知られた問題である。
生成言語モデルの確率的出力と特別な「テキスト評論家」の出力を組み合わせることで幻覚を緩和する新しい方法を提案する。
本手法では,LMのアーキテクチャやトレーニング手順の変更は不要である。
論文 参考訳(メタデータ) (2023-10-25T20:05:07Z) - Description-Based Text Similarity [59.552704474862004]
我々は、その内容の抽象的な記述に基づいて、テキストを検索する必要性を特定する。
そこで本研究では,近隣の標準探索で使用する場合の精度を大幅に向上する代替モデルを提案する。
論文 参考訳(メタデータ) (2023-05-21T17:14:31Z) - AUGNLG: Few-shot Natural Language Generation using Self-trained Data
Augmentation [26.016540126949103]
本稿では,自己学習型ニューラル検索モデルと数ショット学習型NLUモデルを組み合わせた新しいデータ拡張手法であるAUGNLGを提案する。
提案方式はBLEUとSlot Error Rateの両方でFewShotWOZデータの最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2021-06-10T08:45:28Z) - POINTER: Constrained Progressive Text Generation via Insertion-based
Generative Pre-training [93.79766670391618]
ハードコントラストテキスト生成のための新しい挿入ベースアプローチであるPOINTERを提案する。
提案手法は,既存のトークン間で段階的に新しいトークンを並列に挿入することによって動作する。
結果として生じる粗大な階層構造は、生成プロセスを直感的で解釈可能である。
論文 参考訳(メタデータ) (2020-05-01T18:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。