論文の概要: Modified our paper "CME"
- arxiv url: http://arxiv.org/abs/2103.04612v2
- Date: Wed, 10 Mar 2021 05:45:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 12:22:58.396852
- Title: Modified our paper "CME"
- Title(参考訳): 論文「CME」の改訂
- Authors: Bohao Li
- Abstract要約: 本論文は著者によって誤りにより修正されている。
毎週のNewsquizを使って、CNN.comで見たストーリーの知識をテストする。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper has been modified by the author due to errors.
- Abstract(参考訳): 本論文は著者によって誤りにより修正されている。
関連論文リスト
- The Missing Piece in Model Editing: A Deep Dive into the Hidden Damage
Brought By Model Editing [31.004793394634817]
大規模言語モデルは、その顕著な効果で多くのタスクに革命をもたらした。
これらのモデルの編集は時代遅れまたは誤った情報の修正に不可欠であり、しばしば隠れた空間におけるリップル効果として知られる複雑な問題を引き起こす。
本稿では, モデルの適応とその後の編集の影響を定量的に評価する, 新たな評価手法を提案することによって, この科学的課題に対処する。
さらに,このリップル効果を緩和するモデル編集手法であるSelective Outlier Re-Editing Approach(SORA)を導入する。
論文 参考訳(メタデータ) (2024-03-12T17:04:28Z) - Rebuilding ROME : Resolving Model Collapse during Sequential Model
Editing [3.4111723103928173]
Rank-One Model Editing (ROME)によるモデル崩壊は、CounterFactデータセットを使用して編集を行う場合にのみ発生することを示す。
無効な編集はROMEのオリジナルの実装の成果物であることがわかった。
より安定した実装 ROME を提供し、ROME で大規模な逐次編集を行う際には、r-ROME と呼び、モデル崩壊を観測しなくなったことを示す。
論文 参考訳(メタデータ) (2024-03-11T21:33:05Z) - The Butterfly Effect of Model Editing: Few Edits Can Trigger Large Language Models Collapse [58.0132400208411]
単一の編集でさえモデル崩壊を引き起こし、様々なベンチマークタスクで大幅なパフォーマンス低下を示す。
編集後の大規模言語モデルのベンチマークは、過激な時間とリソース集約である。
提案手法は,下流タスク性能と強い相関を示す広範な実験により検証され,サロゲート指標としてパープレキシティを用いる。
論文 参考訳(メタデータ) (2024-02-15T01:50:38Z) - CausalCite: A Causal Formulation of Paper Citations [54.31994550721541]
本稿では,従来のマッチングフレームワークを高次元テキスト埋め込みに適用する因果推論手法であるTextMatchを提案する。
論文引用の因果的定式化として、CausalCiteと呼ばれる結果の計量を適用した。
本研究は, 科学的専門家が報告した紙衝撃と高い相関性など, 様々な基準で有効性を示す。
論文 参考訳(メタデータ) (2023-11-05T23:09:39Z) - Enhancing OCR Performance through Post-OCR Models: Adopting Glyph
Embedding for Improved Correction [0.0]
この手法の斬新さは、CharBERTと独自の埋め込み技術を用いてOCR出力を埋め込み、文字の視覚的特徴を捉えることである。
以上の結果から,OCR後補正はOCRモデルの欠陥に効果的に対処し,グリフ埋め込みにより優れた結果が得られることが示唆された。
論文 参考訳(メタデータ) (2023-08-29T12:41:50Z) - Do as I can, not as I get [46.21061496634747]
本稿では、シミュレーションデータ環境から貴重な情報をマイニングするためのTMRモデルを提案する。
私たちはこの論文の提出を完了するつもりです。
論文 参考訳(メタデータ) (2023-06-17T13:23:22Z) - DocMAE: Document Image Rectification via Self-supervised Representation
Learning [144.44748607192147]
文書画像修正のための新しい自己教師型フレームワークDocMAEを提案する。
まず、背景を除いた文書画像のランダムなパッチをマスクし、欠落したピクセルを再構成する。
このような自己教師型学習手法により、ネットワークは変形文書の本質的な構造を学習することが奨励される。
論文 参考訳(メタデータ) (2023-04-20T14:27:15Z) - Towards Automated Document Revision: Grammatical Error Correction,
Fluency Edits, and Beyond [46.130399041820716]
ACLアンソロジーから採取した学術論文をプロの編集者が改訂する文書改訂コーパスTETRAを導入する。
TETRAの独特性を既存の文書修正コーパスと比較し、微妙な違いであっても、修正後の文書の品質を識別できることを実証する。
論文 参考訳(メタデータ) (2022-05-23T17:37:20Z) - Learning Structural Edits via Incremental Tree Transformations [102.64394890816178]
構造化データのインクリメンタルな編集(すなわち「構造的編集」)のための汎用モデルを提案する。
我々の編集者は、反復的にツリー編集(例えば、サブツリーの削除や追加)を生成し、部分的に編集されたデータに適用することを学びます。
提案したエディタを2つのソースコード編集データセットで評価した結果,提案する編集エンコーダでは,従来よりも精度が向上していることがわかった。
論文 参考訳(メタデータ) (2021-01-28T16:11:32Z) - Variational Inference for Learning Representations of Natural Language
Edits [24.775371434410328]
本稿では,ベクトル表現の連続潜在空間を学習するために,変分推論を用いた新しい手法を提案する。
また、自然言語処理の文脈において、編集表現の質を測定するために特別に設計された下流タスクPEERを提案する。
論文 参考訳(メタデータ) (2020-04-20T09:08:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。