論文の概要: ReasonEdit: Editing Vision-Language Models using Human Reasoning
- arxiv url: http://arxiv.org/abs/2602.02408v2
- Date: Tue, 03 Feb 2026 04:18:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 16:18:58.877151
- Title: ReasonEdit: Editing Vision-Language Models using Human Reasoning
- Title(参考訳): ReasonEdit:人間の推論を用いた視覚言語モデルの編集
- Authors: Jiaxing Qiu, Kaihua Hou, Roxana Daneshjou, Ahmed Alaa, Thomas Hartvigsen,
- Abstract要約: 本稿では,視覚言語モデルエディタReasonEditを提案する。
ReasonEditは、人間の推論をコードブックに格納し、推論中にのみ関連する事実を検索する。
編集中に人為的推論を用いることで、編集の一般化が大幅に向上することを示す。
- 参考スコア(独自算出の注目度): 11.662011379565795
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model editing aims to correct errors in large, pretrained models without altering unrelated behaviors. While some recent works have edited vision-language models (VLMs), no existing editors tackle reasoning-heavy tasks, which typically require humans and models to reason about images. We therefore propose ReasonEdit, the first VLM editor to let users explain their reasoning during editing, introducing a new, practical model editing setup. ReasonEdit continuously stores human reasoning in a codebook, and retrieves only relevant facts during inference using a novel topology-balanced multimodal embedding method inspired by network science. Across four VLMs on multiple rationale-based visual question answering datasets, ReasonEdit achieves state-of-the-art editing performance, ultimately showing that using human reasoning during editing greatly improves edit generalization.
- Abstract(参考訳): モデル編集は、無関係な振る舞いを変えることなく、大規模で事前訓練されたモデルのエラーを修正することを目的としている。
最近のいくつかの研究では視覚言語モデル(VLM)を編集しているが、既存のエディターが推論に重きを置くタスクに取り組むことはない。
そこで我々は,ユーザが編集中に推論を説明できる最初のVLMエディタであるReasonEditを提案し,新しい実用的なモデル編集設定を導入した。
ReasonEditは、人間の推論をコードブックに継続的に保存し、ネットワーク科学にインスパイアされた新しいトポロジーバランスのマルチモーダル埋め込み手法を用いて推論中にのみ関連する事実を検索する。
複数の合理性に基づく視覚的質問応答データセット上の4つのVLMに対して、ReasonEditは最先端の編集性能を実現し、編集中に人間の推論を使用することで編集の一般化を大幅に改善することを示す。
関連論文リスト
- Reasoning to Edit: Hypothetical Instruction-Based Image Editing with Visual Reasoning [106.91108278668166]
Reason50Kは、仮説的推論画像編集のトレーニングと評価のために算出された大規模なデータセットである。
ReasonBrainは、様々なシナリオにまたがる暗黙の仮説的命令を推論し実行するために設計された、新しいフレームワークである。
データセットとコードは公開されます。
論文 参考訳(メタデータ) (2025-07-02T17:22:21Z) - Reasons and Solutions for the Decline in Model Performance after Editing [17.756172082400163]
本稿では,編集モデルの性能低下の原因を考察し,編集方法を最適化する。
編集モデルの性能は、主に編集対象とシーケンス長の多様性に左右される。
本稿では,編集モデルの性能向上のために,Dump for Sequence (D4S) 法を提案する。
論文 参考訳(メタデータ) (2024-10-31T11:49:44Z) - Fundamental Problems With Model Editing: How Should Rational Belief Revision Work in LLMs? [61.68363765350178]
本稿では,モデル編集問題の標準的な定式化を批判し,モデル編集研究のための形式的テストベッドを提案する。
まず,(1) 問題の定義,(2) ベンチマークの開発,(3) LLM がそもそも編集可能な信念を持っていることを前提として,モデル編集における12のオープンな問題について述べる。
次に、Wikidataに基づくモデル編集のための半合成データセットを導入し、理想化されたベイズエージェントによって与えられるラベルに対する編集を評価する。
論文 参考訳(メタデータ) (2024-06-27T17:33:03Z) - The Butterfly Effect of Model Editing: Few Edits Can Trigger Large Language Models Collapse [58.0132400208411]
単一の編集でさえモデル崩壊を引き起こし、様々なベンチマークタスクで大幅なパフォーマンス低下を示す。
編集後の大規模言語モデルのベンチマークは、過激な時間とリソース集約である。
我々は、GPT-3.5を用いて、ハードケースに基づいた新しいデータセット、HardEditを開発した。
論文 参考訳(メタデータ) (2024-02-15T01:50:38Z) - DUnE: Dataset for Unified Editing [3.7346004746366384]
自然言語文を編集するDUnE-an編集ベンチマークを導入する。
検索強化言語モデリングは、特殊な編集技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-27T18:56:14Z) - CoditT5: Pretraining for Source Code and Natural Language Editing [34.77621217370665]
CoditT5は、大量のソースコードと自然言語コメントで事前訓練された、ソフトウェア関連の編集タスクのための大規模な言語モデルである。
コメント更新、バグ修正、自動コードレビューなど、さまざまなダウンストリーム編集タスクを微調整します。
論文 参考訳(メタデータ) (2022-08-10T16:59:40Z) - Memory-Based Model Editing at Scale [102.28475739907498]
既存のモデルエディタは、編集対象のスコープを正確にモデル化するのに苦労する。
SERAC(Retrieval-Augmented Counterfactal Model)を用いた半パラメトリック編集を提案する。
SERACは、編集を明示的なメモリに格納し、必要に応じてベースモデルの予測を変更できるように、それらを推論することを学ぶ。
論文 参考訳(メタデータ) (2022-06-13T23:40:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。