論文の概要: Noise Augmented Fine Tuning for Mitigating Hallucinations in Large Language Models
- arxiv url: http://arxiv.org/abs/2504.03302v1
- Date: Fri, 04 Apr 2025 09:27:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-07 14:49:36.709899
- Title: Noise Augmented Fine Tuning for Mitigating Hallucinations in Large Language Models
- Title(参考訳): 大規模言語モデルにおける幻覚の緩和のためのノイズ増分微細チューニング
- Authors: Afshin Khadangi, Amir Sartipi, Igor Tchappi, Ramin Bahmani,
- Abstract要約: 大規模言語モデル(LLM)は、しばしば不正確な、または誤解を招くコンテンツ・ハロシンを生成する。
noise-Augmented Fine-Tuning (NoiseFiT) は適応ノイズ注入を利用してモデルロバスト性を高める新しいフレームワークである。
NoiseFiTは、動的にスケールしたガウス雑音を用いて、高SNR(より堅牢)または低SNR(潜在的に過正規化)と同定された層を選択的に摂動する。
- 参考スコア(独自算出の注目度): 1.0579965347526206
- License:
- Abstract: Large language models (LLMs) often produce inaccurate or misleading content-hallucinations. To address this challenge, we introduce Noise-Augmented Fine-Tuning (NoiseFiT), a novel framework that leverages adaptive noise injection based on the signal-to-noise ratio (SNR) to enhance model robustness. In particular, NoiseFiT selectively perturbs layers identified as either high-SNR (more robust) or low-SNR (potentially under-regularized) using a dynamically scaled Gaussian noise. We further propose a hybrid loss that combines standard cross-entropy, soft cross-entropy, and consistency regularization to ensure stable and accurate outputs under noisy training conditions. Our theoretical analysis shows that adaptive noise injection is both unbiased and variance-preserving, providing strong guarantees for convergence in expectation. Empirical results on multiple test and benchmark datasets demonstrate that NoiseFiT significantly reduces hallucination rates, often improving or matching baseline performance in key tasks. These findings highlight the promise of noise-driven strategies for achieving robust, trustworthy language modeling without incurring prohibitive computational overhead. Given the comprehensive and detailed nature of our experiments, we have publicly released the fine-tuning logs, benchmark evaluation artifacts, and source code online at W&B, Hugging Face, and GitHub, respectively, to foster further research, accessibility and reproducibility.
- Abstract(参考訳): 大規模言語モデル(LLM)は、しばしば不正確な、または誤解を招くコンテンツ・ハロシンを生成する。
この課題に対処するために,SNR(Signal-to-Noise ratio)に基づく適応ノイズ注入を利用したモデルロバスト性向上のための新しいフレームワークであるNoiseFiT(NoiseFiT)を導入する。
特にノイズファイトは、動的にスケールしたガウス雑音を用いて、高SNR(より堅牢)または低SNR(潜在的に過正規化)と同定される層を選択的に摂動する。
さらに, 標準クロスエントロピー, ソフトクロスエントロピー, 整合正則化を組み合わせたハイブリッド損失を提案し, 雑音条件下での安定かつ正確な出力を確保する。
我々の理論的分析は、適応ノイズ注入は非バイアスと分散保存の両方であり、期待される収束の強い保証を提供することを示している。
複数のテストおよびベンチマークデータセットの実証結果から、NossFiTは幻覚率を著しく低減し、主要なタスクにおけるベースラインのパフォーマンスを改善または整合させることが示されている。
これらの結果から,頑健で信頼性の高い言語モデリングを実現するためのノイズ駆動型戦略が,計算オーバーヘッドを抑えることなく実現できることが示唆された。
我々の実験の包括的かつ詳細な性質から、我々は、さらなる研究、アクセシビリティ、再現性を促進するために、それぞれW&B、Hugging Face、GitHubでオンライン公開されている微調整ログ、ベンチマーク評価アーティファクト、ソースコードを公開しました。
関連論文リスト
- Unsupervised CP-UNet Framework for Denoising DAS Data with Decay Noise [13.466125373185399]
分散音響センサ(DAS)技術は光ファイバーケーブルを利用して音響信号を検出する。
DASは、ジオフォンよりも低い信号対雑音比(S/N)を示す。
これにより、S/Nの低減は、反転と解釈を含むデータ解析に悪影響を及ぼす。
論文 参考訳(メタデータ) (2025-02-19T03:09:49Z) - Effective Noise-aware Data Simulation for Domain-adaptive Speech Enhancement Leveraging Dynamic Stochastic Perturbation [25.410770364140856]
クロスドメイン音声強調(SE)は、目に見えない対象領域におけるノイズや背景情報の不足により、しばしば深刻な課題に直面している。
本研究では,ノイズ抽出技術とGANを利用した新しいデータシミュレーション手法を提案する。
本研究では,動的摂動の概念を導入し,制御された摂動を推論中の雑音埋め込みに注入する。
論文 参考訳(メタデータ) (2024-09-03T02:29:01Z) - Stable Neighbor Denoising for Source-free Domain Adaptive Segmentation [91.83820250747935]
擬似ラベルノイズは主に不安定なサンプルに含まれており、ほとんどのピクセルの予測は自己学習中に大きく変化する。
我々は, 安定・不安定な試料を効果的に発見する, SND(Stable Neighbor Denoising)アプローチを導入する。
SNDは、様々なSFUDAセマンティックセグメンテーション設定における最先端メソッドよりも一貫して優れている。
論文 参考訳(メタデータ) (2024-06-10T21:44:52Z) - ROPO: Robust Preference Optimization for Large Language Models [59.10763211091664]
外部モデルの助けを借りずにノイズ耐性とノイズサンプルのフィルタリングを統合する反復アライメント手法を提案する。
Mistral-7BとLlama-2-7Bで広く使われている3つのデータセットの実験では、ROPOが既存の嗜好アライメント法を大幅に上回っていることが示されている。
論文 参考訳(メタデータ) (2024-04-05T13:58:51Z) - Robustness Enhancement in Neural Networks with Alpha-Stable Training
Noise [0.0]
本研究では,非ガウス音,特にアルファ安定雑音に対する強い強靭性の可能性について検討する。
ガウス雑音とアルファ安定雑音で訓練したモデルの試験精度を比較することで,ガウス雑音よりもアルファ安定雑音で訓練した方が有効であることがわかった。
トレーニングデータに通常付加されるガウス雑音をアルファ安定雑音で置き換える新しいデータ拡張法を提案する。
論文 参考訳(メタデータ) (2023-11-17T10:00:47Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - CFNet: Conditional Filter Learning with Dynamic Noise Estimation for
Real Image Denoising [37.29552796977652]
本稿では、カメラ内信号処理パイプラインを用いた異方性ガウス/ポアソンガウス分布によって近似された実雑音について考察する。
本稿では,特徴位置の異なる最適なカーネルを画像とノイズマップの局所的特徴により適応的に推定できる条件付きフィルタを提案する。
また,CNN構造にノイズ推定や非ブラインド復調を行う場合,反復的特徴復調を導出する前に連続的にノイズを更新すると考える。
論文 参考訳(メタデータ) (2022-11-26T14:28:54Z) - Noisy Recurrent Neural Networks [45.94390701863504]
入力データによって駆動される微分方程式の離散化として,隠れ状態に雑音を注入することによって訓練されたリカレントニューラルネットワーク(RNN)について検討する。
合理的な仮定の下では、この暗黙の正則化はより平坦なミニマムを促進し、より安定な力学を持つモデルに偏りを呈し、分類タスクではより大きな分類マージンを持つモデルを好む。
本理論は, 各種入力摂動に対するロバスト性の向上と, 最先端性能の維持を両立させる実証実験により支持された。
論文 参考訳(メタデータ) (2021-02-09T15:20:50Z) - Shape Matters: Understanding the Implicit Bias of the Noise Covariance [76.54300276636982]
勾配降下のノイズはパラメータ化モデルに対するトレーニングにおいて重要な暗黙の正則化効果をもたらす。
ミニバッチやラベルの摂動によって引き起こされるパラメータ依存ノイズはガウスノイズよりもはるかに効果的であることを示す。
分析の結果,パラメータ依存ノイズは局所最小値に偏りを生じさせるが,球状ガウス雑音は生じないことがわかった。
論文 参考訳(メタデータ) (2020-06-15T18:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。