論文の概要: Exploring the Influence of Relevant Knowledge for Natural Language Generation Interpretability
- arxiv url: http://arxiv.org/abs/2510.24179v1
- Date: Tue, 28 Oct 2025 08:34:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.906385
- Title: Exploring the Influence of Relevant Knowledge for Natural Language Generation Interpretability
- Title(参考訳): 自然言語生成における関連知識の影響を探る
- Authors: Iván Martínez-Murillo, Paloma Moreda, Elena Lloret,
- Abstract要約: 本稿では,自然言語生成における外部知識統合の影響について考察する。
我々は、入力概念セットとConceptNetから取得した意味関係をペアリングするベンチマークであるKITGIを作成することにより、CommonGenデータセットを拡張した。
T5-Largeモデルを用いて、外部知識の完全化とフィルタリング知識の2つの条件下で文生成を比較する。
- 参考スコア(独自算出の注目度): 0.13764085113103217
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores the influence of external knowledge integration in Natural Language Generation (NLG), focusing on a commonsense generation task. We extend the CommonGen dataset by creating KITGI, a benchmark that pairs input concept sets with retrieved semantic relations from ConceptNet and includes manually annotated outputs. Using the T5-Large model, we compare sentence generation under two conditions: with full external knowledge and with filtered knowledge where highly relevant relations were deliberately removed. Our interpretability benchmark follows a three-stage method: (1) identifying and removing key knowledge, (2) regenerating sentences, and (3) manually assessing outputs for commonsense plausibility and concept coverage. Results show that sentences generated with full knowledge achieved 91\% correctness across both criteria, while filtering reduced performance drastically to 6\%. These findings demonstrate that relevant external knowledge is critical for maintaining both coherence and concept coverage in NLG. This work highlights the importance of designing interpretable, knowledge-enhanced NLG systems and calls for evaluation frameworks that capture the underlying reasoning beyond surface-level metrics.
- Abstract(参考訳): 本稿では,自然言語生成における外部知識統合の影響について考察し,コモンセンス生成タスクに着目した。
これは、入力概念セットとConceptNetから取得した意味関係をペアリングし、手動で注釈付けされた出力を含むベンチマークである。
T5-Largeモデルを用いて, 文生成を完全外部知識と, 関連性の高い関係を意図的に除去したフィルタリング知識の2つの条件で比較した。
本手法は,(1)鍵知識の同定と削除,(2)文の再生,(3)常識的妥当性と概念的カバレッジを手作業で評価する3段階の手法である。
その結果,全知識で生成した文は両基準とも91 %の正当性を達成し,フィルタにより性能が劇的に6 %に低下した。
これらの結果から,NLGにおけるコヒーレンスと概念的包括性を維持するためには,関連する外部知識が重要であることが示唆された。
この研究は、解釈可能で知識に富んだNLGシステムを設計することの重要性を強調し、表面レベルのメトリクスを超えた基礎となる推論を捉えるための評価フレームワークを要求する。
関連論文リスト
- Filling the Gap: Is Commonsense Knowledge Generation useful for Natural Language Inference? [0.0]
自然言語推論(英: Natural Language Inference, NLI)とは、ある仮説に対する前提の意味的含意を決定するタスクである。
既存のコモンセンスリソースは、様々な前提-仮説のペアに対して十分なカバレッジを欠いている。
本研究は,2つの重要な次元に沿ったNLIのためのコモンセンス・ナレッジ・ジェネレータとして,大規模言語モデルの可能性について検討する。
論文 参考訳(メタデータ) (2025-07-20T19:42:45Z) - Know3-RAG: A Knowledge-aware RAG Framework with Adaptive Retrieval, Generation, and Filtering [9.814926166669366]
我々は知識グラフ(KG)から構造化知識を活用する知識認識RAGフレームワークであるKnow3-RAGを提案し、検索、生成、フィルタリングを含むRAGプロセスの3つの中核段階を導出する。
複数のオープンドメインQAベンチマークの実験では、Know3-RAGは強いベースラインを一貫して上回り、幻覚を著しく減らし、回答の信頼性を向上している。
論文 参考訳(メタデータ) (2025-05-19T03:25:18Z) - Transparentize the Internal and External Knowledge Utilization in LLMs with Trustworthy Citation [25.54961029763311]
コンテキストPrior Augmented Citation Generationタスクは、外部知識と内部知識の両方を考慮した引用を生成するモデルを必要とする。
我々は,タスクのパラダイムであるRAELを導入し,慣用データ生成とアライメントアルゴリズムを含む統合手法であるINTRALIGNを設計する。
拡張実験により, 検索品質, 質問タイプ, モデル知識が, 引用生成の信頼性にかなりの影響を及ぼすことが明らかとなった。
論文 参考訳(メタデータ) (2025-04-21T04:50:16Z) - ParamMute: Suppressing Knowledge-Critical FFNs for Faithful Retrieval-Augmented Generation [91.20492150248106]
本研究では,不誠実な生成の背後にある内部メカニズムを解明し,不均等に活性化される中深度フィードフォワードネットワーク(FFN)のサブセットを同定する。
本研究では,不信感関連FFNの活性化を抑制することにより,文脈的忠実度を向上させるフレームワークであるParametric Knowledge Mutingを提案する。
実験結果から,ParamMuteはCoFaithfulQAと確立されたConFiQAベンチマークの両方の信頼度を大幅に向上し,パラメトリックメモリへの依存度を大幅に低下させることが示された。
論文 参考訳(メタデータ) (2025-02-21T15:50:41Z) - S$^2$DN: Learning to Denoise Unconvincing Knowledge for Inductive Knowledge Graph Completion [19.09682423796942]
帰納的知識グラフ補完のためのセマンティック構造対応デノイングネットワーク(S$2$DN)を提案する。
我々のゴールは、一貫した意味的知識を蒸留するために適応可能な一般的な意味論と信頼できる構造を学ぶことである。
3つのベンチマークKGで実施された実験は、S$2$DNが最先端モデルの性能を上回ることを示した。
論文 参考訳(メタデータ) (2024-12-20T12:03:33Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z) - Common Sense or World Knowledge? Investigating Adapter-Based Knowledge
Injection into Pretrained Transformers [54.417299589288184]
本研究では,概念ネットとそれに対応するオープンマインド・コモンセンス(OMCS)コーパスから,BERTの分布知識と概念知識を補完するモデルについて検討する。
我々のアダプタベースのモデルは,ConceptNet や OMCS に明示的に存在する概念的知識のタイプを必要とする推論タスクにおいて,BERT を大幅に上回っている。
論文 参考訳(メタデータ) (2020-05-24T15:49:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。