論文の概要: StruEdit: Structured Outputs Enable the Fast and Accurate Knowledge Editing for Large Language Models
- arxiv url: http://arxiv.org/abs/2409.10132v1
- Date: Mon, 16 Sep 2024 09:48:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 16:00:03.494997
- Title: StruEdit: Structured Outputs Enable the Fast and Accurate Knowledge Editing for Large Language Models
- Title(参考訳): StruEdit: 大規模言語モデルの高速かつ正確な知識編集を可能にする構造化出力
- Authors: Baolong Bi, Shenghua Liu, Yiwei Wang, Lingrui Mei, Hongcheng Gao, Junfeng Fang, Xueqi Cheng,
- Abstract要約: StruEditは、他の知識編集方法と比較して、レイテンシの低い最高の精度を提供する。
結果,StruEditは,他の知識編集手法と比較して,低レイテンシで常に高い精度を提供することがわかった。
- 参考スコア(独自算出の注目度): 41.45831411548188
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the modern tool of choice for question answering, large language models (LLMs) are expected to deliver answers with up-to-date knowledge. To achieve such ideal question-answering systems, locating and then editing outdated knowledge in the natural language outputs is a general target of popular knowledge editing methods. However, this target is challenging, as both identifying which tokens to edit in the reasoning steps and ensuring the coherence of the revised reasoning chain are difficult tasks. We argue that these challenges stem from the unstructured nature of natural language outputs. To address the above challenges, we propose $\textbf{Stru}$ctural $\textbf{Edit}$ing ($\textbf{StruEdit}$), an improved baseline for knowledge editing. We first prompt LLMs to produce structured outputs consisting of reasoning triplets. Then, StruEdit removes any potentially outdated knowledge and efficiently refills the structured outputs with up-to-date information in a single step. Experimental results show that StruEdit consistently delivers the highest accuracy with lowest latency compared with other knowledge editing methods.
- Abstract(参考訳): 質問応答のための現代的なツールとして、大規模言語モデル(LLM)が、最新の知識で回答を提供することが期待されている。
このような理想的な質問応答システムを実現するために、自然言語出力における古くなった知識の配置と編集は、一般的な知識編集手法の一般的なターゲットである。
しかし、このターゲットは、どのトークンを推論ステップで編集するかを識別し、修正された推論チェーンの一貫性を確保することが困難なタスクであるため、困難である。
これらの課題は、自然言語出力の非構造的な性質に由来すると我々は主張する。
上記の課題に対処するため、知識編集のベースラインを改良した $\textbf{Stru}$ctural $\textbf{Edit}$ing$\textbf{StruEdit}$ing$を提案する。
まず LLM に対して, 推論三重項からなる構造出力を生成する。
そして、StruEditは、潜在的に時代遅れな知識を取り除き、構造化された出力を最新の情報で1ステップで効率的に補充する。
実験結果から,StruEditは,他の知識編集手法と比較して,低レイテンシで常に高い精度を実現していることがわかった。
関連論文リスト
- Bridging the Editing Gap in LLMs: FineEdit for Precise and Targeted Text Modifications [9.795246551841586]
大規模言語モデル(LLM)は自然言語処理に変化をもたらしたが、直接テキスト編集タスクに苦戦している。
本研究では,LLM編集性能を向上させるための2つのアプローチを提案する。
まず、20,000以上の構造化編集タスクからなる高品質なベンチマークデータセットであるInstrEditBenchを紹介する。
第2に、このキュレートされたベンチマークで訓練された特殊なモデルであるFineEditを提案する。
論文 参考訳(メタデータ) (2025-02-19T01:41:44Z) - K-Edit: Language Model Editing with Contextual Knowledge Awareness [71.73747181407323]
知識に基づくモデル編集は、大きな言語モデルの重みを正確に修正することを可能にする。
我々は、文脈的に一貫した知識編集を生成するための効果的なアプローチであるK-Editを提案する。
論文 参考訳(メタデータ) (2025-02-15T01:35:13Z) - AnyEdit: Edit Any Knowledge Encoded in Language Models [69.30638272162267]
大規模言語モデル(LLM)のための新しい自動回帰編集パラダイムであるAnyEditを提案する。
長い形式の知識を逐次チャンクに分解し、各チャンク内のキートークンを反復的に編集し、一貫性と正確な出力を保証する。
UnKEBench、AKEW、そして我々の長文の多様な知識のための新しいEditEverythingデータセットを含むベンチマークでは、強いベースラインを21.5%上回っている。
論文 参考訳(メタデータ) (2025-02-08T16:18:37Z) - Everything is Editable: Extend Knowledge Editing to Unstructured Data in Large Language Models [65.10456412127405]
現実世界の知識の大部分は、構造化されていない形式で保存される。
ローカル層キーバリューストレージや項駆動最適化のような技術は、構造化されていない知識を扱うのに有効ではない。
本研究では,非構造化知識編集手法,すなわちUnKEを提案する。
論文 参考訳(メタデータ) (2024-05-24T08:42:40Z) - Has this Fact been Edited? Detecting Knowledge Edits in Language Models [5.260519479124422]
知識編集手法(KEs)は、事前学習から学んだ言語モデルの古いまたは不正確な知識を更新することができる。
生成されたアウトプットが編集された知識に基づいているか、あるいは事前学習からのファーストハンド知識に基づいているかを知ることは、生成モデルに対するユーザの信頼を高めることができる。
本稿では,言語モデルにおける編集された知識を検出する新しい課題を提案する。
論文 参考訳(メタデータ) (2024-05-04T22:02:24Z) - On the Robustness of Editing Large Language Models [57.477943944826904]
大型言語モデル(LLM)はコミュニケーションAIの構築において重要な役割を担っているが、効率的な更新の課題に直面している。
この研究は、編集方法の長所と短所を理解し、コミュニケーション型AIの実践的応用を促進することを目的としている。
論文 参考訳(メタデータ) (2024-02-08T17:06:45Z) - SWEA: Updating Factual Knowledge in Large Language Models via Subject Word Embedding Altering [17.20346072074533]
近年のモデル編集は,大規模言語モデルの少数の知識を効率的に更新する上で有望な手法である。
本稿では,トークンレベルのマッチングによる埋め込みの編集を行うSWEAフレームワークを提案する。
SWEA$oplus$OSのCounterFactデータセットとzsREデータセット上でのSOTA(State-of-the-art)パフォーマンスを実証する。
論文 参考訳(メタデータ) (2024-01-31T13:08:45Z) - WikiIns: A High-Quality Dataset for Controlled Text Editing by Natural
Language Instruction [56.196512595940334]
WikiInsは高品質な制御されたテキスト編集データセットで、情報性が向上している。
高品質なアノテートデータセットを用いて,大規模な銀のトレーニングセットを生成するための自動アプローチを提案する。
論文 参考訳(メタデータ) (2023-10-08T04:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。