論文の概要: NoVo: Norm Voting off Hallucinations with Attention Heads in Large Language Models
- arxiv url: http://arxiv.org/abs/2410.08970v2
- Date: Tue, 29 Oct 2024 05:23:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 03:16:22.888241
- Title: NoVo: Norm Voting off Hallucinations with Attention Heads in Large Language Models
- Title(参考訳): NoVo: 大規模言語モデルにおける注意頭による幻覚の投票
- Authors: Zheng Yi Ho, Siyuan Liang, Sen Zhang, Yibing Zhan, Dacheng Tao,
- Abstract要約: 本稿では,注意基準の未適用ポテンシャルを利用して,事実の精度を高める軽量なノム投票法(Nom Voting, NoVo)を提案する。
TruthfulQA MC1では、NoVoは現在の最先端および過去のすべてのメソッドを、驚くべきマージン -- 少なくとも19の精度ポイントで上回る。
- 参考スコア(独自算出の注目度): 70.02816541347251
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Hallucinations in Large Language Models (LLMs) remain a major obstacle, particularly in high-stakes applications where factual accuracy is critical. While representation editing and reading methods have made strides in reducing hallucinations, their heavy reliance on specialised tools and training on in-domain samples, makes them difficult to scale and prone to overfitting. This limits their accuracy gains and generalizability to diverse datasets. This paper presents a lightweight method, Norm Voting (NoVo), which harnesses the untapped potential of attention head norms to dramatically enhance factual accuracy in zero-shot multiple-choice questions (MCQs). NoVo begins by automatically selecting truth-correlated head norms with an efficient, inference-only algorithm using only 30 random samples, allowing NoVo to effortlessly scale to diverse datasets. Afterwards, selected head norms are employed in a simple voting algorithm, which yields significant gains in prediction accuracy. On TruthfulQA MC1, NoVo surpasses the current state-of-the-art and all previous methods by an astounding margin -- at least 19 accuracy points. NoVo demonstrates exceptional generalization to 20 diverse datasets, with significant gains in over 90\% of them, far exceeding all current representation editing and reading methods. NoVo also reveals promising gains to finetuning strategies and building textual adversarial defence. NoVo's effectiveness with head norms opens new frontiers in LLM interpretability, robustness and reliability.
- Abstract(参考訳): 大規模言語モデル(LLM)における幻覚は依然として大きな障害であり、特に事実の正確さが重要となる高精度なアプリケーションにおいてである。
表現編集・読解手法は幻覚の低減に力を入れてきたが、専門ツールやドメイン内サンプルのトレーニングに大きく依存しているため、スケールが難しく、過度に適合する傾向にある。
これにより、さまざまなデータセットに対する精度の向上と一般化性が制限される。
本稿では,ゼロショット多重選択質問(MCQ)において,注目ヘッドノルムの未解決ポテンシャルを利用して,事実の精度を劇的に向上する軽量なNom Voting(NoVo)を提案する。
NoVoは、30のランダムサンプルのみを使用して、効率的で推論のみのアルゴリズムで真理関連ヘッドノルムを自動的に選択することで、NoVoがさまざまなデータセットに不注意にスケールできるようにする。
その後、選択されたヘッドノルムが単純な投票アルゴリズムで採用され、予測精度が大幅に向上する。
TruthfulQA MC1では、NoVoは現在の最先端および過去のすべてのメソッドを、驚くべきマージン -- 少なくとも19の精度ポイントで上回る。
NoVoは、20の多様なデータセットへの例外的な一般化を示し、その90%以上で顕著に増加し、現在のすべての表現編集および読み出しメソッドをはるかに上回っている。
NoVoはまた、戦略を微調整し、テキストによる敵防衛を構築するための有望な利益も明らかにしている。
NoVoのヘッドノルムの有効性は、LLMの解釈可能性、堅牢性、信頼性において新たなフロンティアを開く。
関連論文リスト
- Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - An Adaptive Cost-Sensitive Learning and Recursive Denoising Framework for Imbalanced SVM Classification [12.986535715303331]
カテゴリー不均衡は、分類分野において最も人気があり重要な問題の一つである。
不均衡データセットに基づいてトレーニングされた感情分類モデルは、容易に信頼性の低い予測につながる。
論文 参考訳(メタデータ) (2024-03-13T09:43:14Z) - Debiasing Multimodal Large Language Models [61.6896704217147]
LVLM(Large Vision-Language Models)は、コンピュータビジョンや自然言語処理において欠かせないツールとなっている。
本研究は,入力画像に先行するLarge Language Models (LLM) の影響を主に受け,生成したコンテンツに有意なバイアスが生じることを示す。
これらのバイアスを是正し、視覚情報に対するモデルの焦点をリダイレクトするために、我々は2つの単純で訓練のない戦略を導入する。
論文 参考訳(メタデータ) (2024-03-08T12:35:07Z) - Efficient Weighting Schemes for Auditing Instant-Runoff Voting Elections [57.67176250198289]
AWAIREは、適応的に重み付けされたテスト統計量であり、本質的には、テストに有効な仮説のセットを「学習」する。
我々は、より広範囲にスキームと設定を検討し、実践のための効率的な選択を特定し、推奨する。
現在のAWAIRE実装の制限は、少数の候補者に限られている。
論文 参考訳(メタデータ) (2024-02-18T10:13:01Z) - HyPoradise: An Open Baseline for Generative Speech Recognition with
Large Language Models [81.56455625624041]
ASRの誤り訂正に外部の大規模言語モデル(LLM)を利用する最初のオープンソースベンチマークを導入する。
提案したベンチマークには、334,000組以上のN-best仮説を含む新しいデータセットHyPoradise (HP)が含まれている。
合理的なプロンプトと生成能力を持つLLMは、N-bestリストに欠けているトークンを修正できる。
論文 参考訳(メタデータ) (2023-09-27T14:44:10Z) - New Bounds on the Accuracy of Majority Voting for Multi-Class
Classification [5.95012663623095]
一般的な多クラス分類問題に対するMVFの精度は未だ不明である。
一定の条件下では、MVFの誤差率は、独立投票者の数が増えるにつれて指数関数的にゼロに低下する。
次に、真理発見アルゴリズムの精度について論じる。
論文 参考訳(メタデータ) (2023-09-18T08:16:41Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。