論文の概要: Capturing Symmetry and Antisymmetry in Language Models through Symmetry-Aware Training Objectives
- arxiv url: http://arxiv.org/abs/2504.16312v1
- Date: Tue, 22 Apr 2025 23:11:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.957497
- Title: Capturing Symmetry and Antisymmetry in Language Models through Symmetry-Aware Training Objectives
- Title(参考訳): 対称性を考慮した学習目標による言語モデルにおける対称性とアンチ対称性の獲得
- Authors: Zhangdie Yuan, Andreas Vlachos,
- Abstract要約: 大規模言語モデル(LLM)を評価するために設計されたウィキデータに基づく新しい自然言語推論データセットを提案する。
以上の結果から, LLM は, このベンチマークにおいて, ランダムな確率に相反する性能を示し, 関係理解のギャップを浮き彫りにしている。
そこで本研究では,k-nearest 隣人とのコントラスト学習によるエンコーダのリトレーニングについて検討する。
- 参考スコア(独自算出の注目度): 11.024798322342413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capturing symmetric (e.g., country borders another country) and antisymmetric (e.g., parent_of) relations is crucial for a variety of applications. This paper tackles this challenge by introducing a novel Wikidata-derived natural language inference dataset designed to evaluate large language models (LLMs). Our findings reveal that LLMs perform comparably to random chance on this benchmark, highlighting a gap in relational understanding. To address this, we explore encoder retraining via contrastive learning with k-nearest neighbors. The retrained encoder matches the performance of fine-tuned classification heads while offering additional benefits, including greater efficiency in few-shot learning and improved mitigation of catastrophic forgetting.
- Abstract(参考訳): 対称性(eg,国が他国と接する)と反対称性(eg, parent_of)の獲得は、様々な応用に不可欠である。
本稿では,大規模言語モデル(LLM)を評価するために設計された,ウィキデータに基づく新しい自然言語推論データセットを導入することで,この問題に対処する。
以上の結果から, LLM は, このベンチマークにおいて, ランダムな確率に相反する性能を示し, 関係理解のギャップを浮き彫りにしている。
そこで本研究では,k-nearest 隣人とのコントラスト学習によるエンコーダのリトレーニングについて検討する。
リトレーニングされたエンコーダは、微調整された分類ヘッドの性能と一致し、また、数ショット学習の効率の向上や、破滅的な忘れ込みの軽減など、追加の利点を提供する。
関連論文リスト
- ReLearn: Unlearning via Learning for Large Language Models [64.2802606302194]
本研究では、効果的なアンラーニングのためのデータ拡張および微調整パイプラインであるReLearnを提案する。
このフレームワークでは、知識レベルの保存を測定するために、知識獲得率(KFR)と知識保持率(KRR)を導入している。
実験の結果,ReLearnは高品質な出力を保ちながら,目標とするリセットを実現することができた。
論文 参考訳(メタデータ) (2025-02-16T16:31:00Z) - Analysis of LLM as a grammatical feature tagger for African American English [0.6927055673104935]
アフリカ系アメリカ人英語(AAE)は自然言語処理(NLP)に固有の課題を提示している
本研究では,利用可能なNLPモデルの性能を体系的に比較する。
本研究は,AAEの固有の言語特性をよりよく適合させるために,モデルトレーニングとアーキテクチャ調整の改善の必要性を強調した。
論文 参考訳(メタデータ) (2025-02-09T19:46:33Z) - SIaM: Self-Improving Code-Assisted Mathematical Reasoning of Large Language Models [54.78329741186446]
本稿では,コードに基づく批判モデルを用いて,質問コードデータ構築,品質管理,補完的評価などのステップをガイドする新しいパラダイムを提案する。
英語と中国語におけるドメイン内ベンチマークとドメイン外ベンチマークの両方の実験は、提案したパラダイムの有効性を実証している。
論文 参考訳(メタデータ) (2024-08-28T06:33:03Z) - Enhancing Idiomatic Representation in Multiple Languages via an Adaptive Contrastive Triplet Loss [9.807885676930308]
本稿では, 単語の非対称的な寄与を取り入れた三重項損失を用いた慣用性モデルを提案する。
提案手法はSemEvalの課題に基づいて評価され,多くの指標において従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-21T14:21:41Z) - CSS: Contrastive Semantic Similarity for Uncertainty Quantification of LLMs [1.515687944002438]
テキストペアの不確実性を測定するための類似性特徴を求めるモジュールであるContrastive Semantic similarityを提案する。
我々は,3つの大規模言語モデル (LLM) を用いて,複数のベンチマーク質問応答データセットについて広範な実験を行った。
提案手法は,LLMの信頼性の高い応答を,同等のベースラインよりも高い精度で推定できることを示す。
論文 参考訳(メタデータ) (2024-06-05T11:35:44Z) - Evaluating Generative Language Models in Information Extraction as Subjective Question Correction [49.729908337372436]
本稿では,新しい評価手法SQC-Scoreを提案する。
主観的質問訂正の原則に着想を得て,新しい評価手法SQC-Scoreを提案する。
3つの情報抽出タスクの結果から,SQC-Scoreは基準値よりもアノテータの方が好ましいことが示された。
論文 参考訳(メタデータ) (2024-04-04T15:36:53Z) - Machine Translation Meta Evaluation through Translation Accuracy
Challenge Sets [92.38654521870444]
ACESは146の言語ペアにまたがる対照的な課題セットです。
このデータセットは、メトリクスが68の翻訳精度の誤差を識別できるかどうかを調べることを目的としている。
我々は、WMT2022および2023のメトリクス共有タスクに提出された50のメトリクスに対して、ACESをベンチマークすることで、大規模な研究を行う。
論文 参考訳(メタデータ) (2024-01-29T17:17:42Z) - Efficient Nearest Neighbor Language Models [114.40866461741795]
非パラメトリックニューラルネットワークモデル(NLM)は、外部データストアを用いてテキストの予測分布を学習する。
比較性能を維持しながら、推論速度の最大6倍の高速化を実現する方法を示す。
論文 参考訳(メタデータ) (2021-09-09T12:32:28Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。