論文の概要: TRIZ-RAGNER: A Retrieval-Augmented Large Language Model for TRIZ-Aware Named Entity Recognition in Patent-Based Contradiction Mining
- arxiv url: http://arxiv.org/abs/2602.23656v1
- Date: Fri, 27 Feb 2026 03:40:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.237853
- Title: TRIZ-RAGNER: A Retrieval-Augmented Large Language Model for TRIZ-Aware Named Entity Recognition in Patent-Based Contradiction Mining
- Title(参考訳): TRIZ-RAGNER:特許に基づくコントラクションマイニングにおけるエンティティ認識のための検索型大規模言語モデル
- Authors: Zitong Xu, Yuqing Wu, Yue Zhao,
- Abstract要約: 本稿では、TRIZ対応エンティティ認識のための検索強化された大規模言語モデルフレームワークを提案する。
TRIZ-RAGNERは、矛盾マイニングを意味レベルNERタスクとして再構成し、TRIZ知識ベース上の密集検索を統合する。
PaTRIZデータセットの実験は、TRIZ-RAGNERが従来のシーケンスラベリングモデルより一貫して優れていることを示した。
- 参考スコア(独自算出の注目度): 7.27691501996559
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: TRIZ-based contradiction mining is a fundamental task in patent analysis and systematic innovation, as it enables the identification of improving and worsening technical parameters that drive inventive problem solving. However, existing approaches largely rely on rule-based systems or traditional machine learning models, which struggle with semantic ambiguity, domain dependency, and limited generalization when processing complex patent language. Recently, large language models (LLMs) have shown strong semantic understanding capabilities, yet their direct application to TRIZ parameter extraction remains challenging due to hallucination and insufficient grounding in structured TRIZ knowledge. To address these limitations, this paper proposes TRIZ-RAGNER, a retrieval-augmented large language model framework for TRIZ-aware named entity recognition in patent-based contradiction mining. TRIZ-RAGNER reformulates contradiction mining as a semantic-level NER task and integrates dense retrieval over a TRIZ knowledge base, cross-encoder reranking for context refinement, and structured LLM prompting to extract improving and worsening parameters from patent sentences. By injecting domain-specific TRIZ knowledge into the LLM reasoning process, the proposed framework effectively reduces semantic noise and improves extraction consistency. Experiments on the PaTRIZ dataset demonstrate that TRIZ-RAGNER consistently outperforms traditional sequence labeling models and LLM-based baselines. The proposed framework achieves a precision of 85.6%, a recall of 82.9%, and an F1-score of 84.2% in TRIZ contradiction pair identification. Compared with the strongest baseline using prompt-enhanced GPT, TRIZ-RAGNER yields an absolute F1-score improvement of 7.3 percentage points, confirming the effectiveness of retrieval-augmented TRIZ knowledge grounding for robust and accurate patent-based contradiction mining.
- Abstract(参考訳): TRIZベースの矛盾マイニングは、発明的な問題解決を促進する技術的パラメータの改善と悪化を可能にするため、特許分析と体系的なイノベーションの基本的なタスクである。
しかし、既存のアプローチは主にルールベースのシステムや従来の機械学習モデルに依存しており、複雑な特許言語を処理する際に意味的曖昧さ、ドメイン依存性、限定的な一般化に苦慮している。
近年,大規模言語モデル (LLMs) は強い意味理解能力を示しているが, TRIZパラメータ抽出への直接的適用は, 幻覚や構造的TRIZ知識の基盤化が不十分なため, 依然として困難である。
本稿では, TRIZ-RAGNERを提案する。TRIZ-RAGNERは, 特許に基づく矛盾マイニングにおいて, TRIZを意識したエンティティ認識のための大規模言語モデルフレームワークである。
TRIZ-RAGNERは、セマンティックレベルのNERタスクとして矛盾するマイニングを再構築し、TRIZ知識ベース上の密集検索、コンテキスト改善のためのクロスエンコーダ、特許文から改善および悪化するパラメータを抽出する構造化LPMを統合する。
LLM推論プロセスにドメイン固有のTRIZ知識を注入することにより、提案フレームワークはセマンティックノイズを効果的に低減し、抽出一貫性を向上させる。
PaTRIZデータセットの実験では、TRIZ-RAGNERは従来のシーケンスラベリングモデルやLLMベースのベースラインよりも一貫して優れていた。
提案手法は精度85.6%、リコール82.9%、F1スコア84.2%である。
GPTを用いた最強のベースラインと比較して、TRIZ-RAGNERは絶対F1スコアの7.3ポイントの改善を達成し、堅牢で正確な特許ベースの矛盾マイニングのための検索強化されたTRIZ知識の有効性を確認する。
関連論文リスト
- Acting Flatterers via LLMs Sycophancy: Combating Clickbait with LLMs Opposing-Stance Reasoning [10.782330552067664]
シコファシー(Sycophancy)は、ユーザーの真実に対する信念と一致する推論を生み出す傾向にある。
本研究は、この行動を利用して、対立する視点から対照的な推論を生成する新しいアプローチを提案する。
我々は3つのBERTエンコーダを統合してタイトルとその関連する推論を表現できるローカルなOpposing ReasoningベースのClickbait検出モデルを開発した。
論文 参考訳(メタデータ) (2026-01-17T11:57:23Z) - RISER: Orchestrating Latent Reasoning Skills for Adaptive Activation Steering [62.63376387138257]
本稿では,アクティベーション空間における大規模言語モデル(LLM)推論を適応的に制御するプラグイン・アンド・プレイ介入フレームワークを提案する。
RISERは再利用可能な推論ベクトルのライブラリを構築し、軽量ルータを使用して各入力に対して動的に構成する。
ルーターは、タスクレベルの報酬の下で強化学習を通じて最適化され、緊急かつ構成的な方法で潜在する認知的プリミティブを活性化する。
論文 参考訳(メタデータ) (2026-01-14T08:04:33Z) - Probing Latent Knowledge Conflict for Faithful Retrieval-Augmented Generation [46.03923254984181]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の現実性を高めるための強力なパラダイムとして登場した。
既存の文脈忠実性を改善するアプローチは、プロンプトエンジニアリング、デコード制約、報酬に基づく微調整など、外部からの介入に依存している。
文脈を微粒な文レベルの知識に分解するフレームワークであるCLEAR(Conflict-Localized and Enhanced Attention for RAG)を提案する。
論文 参考訳(メタデータ) (2025-10-14T12:48:24Z) - An automatic patent literature retrieval system based on LLM-RAG [2.035980938365065]
本研究では,LLMとRetrievalAugmented Generation RAG技術を組み合わせた自動特許検索フレームワークを提案する。
システムは,1) 特許データの標準化のための事前処理モジュール,2) LLM生成埋め込みを利用した高効率ベクトル検索エンジン,3) 外部文書検索とコンテキスト対応応答生成を組み合わせたRAGenhancedクエリモジュールの3つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2025-08-11T02:39:16Z) - PropRAG: Guiding Retrieval with Beam Search over Proposition Paths [15.346744525284604]
PropRAGは、トリプルからコンテキストリッチな命題に移行する新しいRAGフレームワークである。
PropRAGは2Wiki、HotpotQA、MuSiQueでRecall@5とF1のスコアを達成している。
論文 参考訳(メタデータ) (2025-04-25T04:47:34Z) - MCTS-RAG: Enhancing Retrieval-Augmented Generation with Monte Carlo Tree Search [61.11836311160951]
本稿では,知識集約型タスクにおける小言語モデルの推論能力を高める新しいアプローチであるMCTS-RAGを紹介する。
通常、推論から独立して情報を取得する標準的なRAG法とは異なり、MCTS-RAGは構造化推論と適応的検索を組み合わせる。
この統合されたアプローチは意思決定を強化し、幻覚を減らし、事実の正確性と応答の整合性を向上させる。
論文 参考訳(メタデータ) (2025-03-26T17:46:08Z) - SFR-RAG: Towards Contextually Faithful LLMs [57.666165819196486]
Retrieval Augmented Generation (RAG) は、外部コンテキスト情報を大言語モデル(LLM)と統合し、事実の精度と妥当性を高めるパラダイムである。
SFR-RAG(SFR-RAG)について述べる。
また、複数の人気かつ多様なRAGベンチマークをコンパイルする新しい評価フレームワークであるConBenchについても紹介する。
論文 参考訳(メタデータ) (2024-09-16T01:08:18Z) - Networks of Networks: Complexity Class Principles Applied to Compound AI Systems Design [63.24275274981911]
多くの言語モデル推論コールからなる複合AIシステムは、ますます採用されている。
本研究では,提案した回答の生成と正当性検証の区別を中心に,ネットワークネットワーク(NoN)と呼ばれるシステムを構築した。
我々は,Kジェネレータを備えた検証器ベースの判定器NoNを導入し,"Best-of-K"あるいは"judge-based"複合AIシステムのインスタンス化を行う。
論文 参考訳(メタデータ) (2024-07-23T20:40:37Z) - LLM-based Extraction of Contradictions from Patents [0.0]
本稿では,Prompt Engineeringに基づく特許文書からTRIZの矛盾を抽出する手法を提案する。
以上の結果から,GPT-4 は既存のアプローチの真に代替するものであることが示唆された。
論文 参考訳(メタデータ) (2024-03-21T09:36:36Z) - Large Language Models as an Indirect Reasoner: Contrapositive and Contradiction for Automated Reasoning [74.90592233107712]
本稿では,直接推論 (DR) と間接推論 (IR) を並列な複数の推論経路として考慮し,最終解を導出する直接間接推論 (DIR) 手法を提案する。
我々のDIR法は単純だが有効であり、既存のCoT法と簡単に統合できる。
論文 参考訳(メタデータ) (2024-02-06T03:41:12Z) - HyPoradise: An Open Baseline for Generative Speech Recognition with
Large Language Models [81.56455625624041]
ASRの誤り訂正に外部の大規模言語モデル(LLM)を利用する最初のオープンソースベンチマークを導入する。
提案したベンチマークには、334,000組以上のN-best仮説を含む新しいデータセットHyPoradise (HP)が含まれている。
合理的なプロンプトと生成能力を持つLLMは、N-bestリストに欠けているトークンを修正できる。
論文 参考訳(メタデータ) (2023-09-27T14:44:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。