論文の概要: Modified our paper "CME"
- arxiv url: http://arxiv.org/abs/2103.04612v2
- Date: Wed, 10 Mar 2021 05:45:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 12:22:58.396852
- Title: Modified our paper "CME"
- Title(参考訳): 論文「CME」の改訂
- Authors: Bohao Li
- Abstract要約: 本論文は著者によって誤りにより修正されている。
毎週のNewsquizを使って、CNN.comで見たストーリーの知識をテストする。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper has been modified by the author due to errors.
- Abstract(参考訳): 本論文は著者によって誤りにより修正されている。
関連論文リスト
- Efficiently Quantifying and Mitigating Ripple Effects in Model Editing [27.627105709896025]
大規模な言語モデルは、時代遅れまたは誤った情報の修正に不可欠である。
これらのモデルを編集すると、しばしば、隠れた空間におけるリップル効果と呼ばれる複雑な問題が発生する。
本稿では,モデルの適応とその後の編集の影響を定量的に評価する新しい評価手法を提案する。
さらに,このリップル効果を緩和するモデル編集法であるSelective Impact Revision(SIR)を導入する。
論文 参考訳(メタデータ) (2024-03-12T17:04:28Z) - Rebuilding ROME : Resolving Model Collapse during Sequential Model Editing [2.569159339315845]
Rank-One Model Editing (ROME) の実装において,編集の無効化は不規則な成果であることを示す。
我々は、r-ROME と呼ばれるより安定した実装 ROME を提供し、r-ROME で大規模な逐次編集を行う場合、モデル崩壊はもはや観測されないことを示す。
論文 参考訳(メタデータ) (2024-03-11T21:33:05Z) - The Butterfly Effect of Model Editing: Few Edits Can Trigger Large Language Models Collapse [58.0132400208411]
単一の編集でさえモデル崩壊を引き起こし、様々なベンチマークタスクで大幅なパフォーマンス低下を示す。
編集後の大規模言語モデルのベンチマークは、過激な時間とリソース集約である。
我々は、GPT-3.5を用いて、ハードケースに基づいた新しいデータセット、HardEditを開発した。
論文 参考訳(メタデータ) (2024-02-15T01:50:38Z) - Model Editing Harms General Abilities of Large Language Models: Regularization to the Rescue [122.20016030723043]
大規模言語モデル(LLM)におけるモデル編集の副作用を評価する。
分析の結果,モデルの重みを過度に修正したモデル編集によって副作用が生じることが明らかとなった。
これを軽減するために、修正の重み付けを正規化するためにRECTというメソッドが提案されている。
論文 参考訳(メタデータ) (2024-01-09T18:03:15Z) - CausalCite: A Causal Formulation of Paper Citations [80.82622421055734]
CausalCiteは紙の意義を測定するための新しい方法だ。
これは、従来のマッチングフレームワークを高次元のテキスト埋め込みに適応させる、新しい因果推論手法であるTextMatchに基づいている。
科学専門家が報告した紙衝撃と高い相関性など,各種基準におけるCausalCiteの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-05T23:09:39Z) - Enhancing OCR Performance through Post-OCR Models: Adopting Glyph
Embedding for Improved Correction [0.0]
この手法の斬新さは、CharBERTと独自の埋め込み技術を用いてOCR出力を埋め込み、文字の視覚的特徴を捉えることである。
以上の結果から,OCR後補正はOCRモデルの欠陥に効果的に対処し,グリフ埋め込みにより優れた結果が得られることが示唆された。
論文 参考訳(メタデータ) (2023-08-29T12:41:50Z) - Do as I can, not as I get [46.21061496634747]
本稿では、シミュレーションデータ環境から貴重な情報をマイニングするためのTMRモデルを提案する。
私たちはこの論文の提出を完了するつもりです。
論文 参考訳(メタデータ) (2023-06-17T13:23:22Z) - DocMAE: Document Image Rectification via Self-supervised Representation
Learning [144.44748607192147]
文書画像修正のための新しい自己教師型フレームワークDocMAEを提案する。
まず、背景を除いた文書画像のランダムなパッチをマスクし、欠落したピクセルを再構成する。
このような自己教師型学習手法により、ネットワークは変形文書の本質的な構造を学習することが奨励される。
論文 参考訳(メタデータ) (2023-04-20T14:27:15Z) - Learning Structural Edits via Incremental Tree Transformations [102.64394890816178]
構造化データのインクリメンタルな編集(すなわち「構造的編集」)のための汎用モデルを提案する。
我々の編集者は、反復的にツリー編集(例えば、サブツリーの削除や追加)を生成し、部分的に編集されたデータに適用することを学びます。
提案したエディタを2つのソースコード編集データセットで評価した結果,提案する編集エンコーダでは,従来よりも精度が向上していることがわかった。
論文 参考訳(メタデータ) (2021-01-28T16:11:32Z) - Variational Inference for Learning Representations of Natural Language
Edits [24.775371434410328]
本稿では,ベクトル表現の連続潜在空間を学習するために,変分推論を用いた新しい手法を提案する。
また、自然言語処理の文脈において、編集表現の質を測定するために特別に設計された下流タスクPEERを提案する。
論文 参考訳(メタデータ) (2020-04-20T09:08:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。