論文の概要: Reducing Hallucinations in Neural Machine Translation with Feature
Attribution
- arxiv url: http://arxiv.org/abs/2211.09878v1
- Date: Thu, 17 Nov 2022 20:33:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 14:42:19.035365
- Title: Reducing Hallucinations in Neural Machine Translation with Feature
Attribution
- Title(参考訳): 特徴帰属を伴うニューラルマシン翻訳における幻覚の低減
- Authors: Jo\"el Tang, Marina Fomicheva, Lucia Specia
- Abstract要約: 本研究は,NMTにおける幻覚の軽減を目的としたモデル理解と正規化に着目したケーススタディである。
まず,幻覚を発生させるNMTモデルの振る舞いを研究するために,特徴帰属法を用いる。
次に、これらの手法を利用して、幻覚の低減に大きく貢献し、ゼロからモデルを再訓練する必要のない新しい損失関数を提案する。
- 参考スコア(独自算出の注目度): 54.46113444757899
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural conditional language generation models achieve the state-of-the-art in
Neural Machine Translation (NMT) but are highly dependent on the quality of
parallel training dataset. When trained on low-quality datasets, these models
are prone to various error types, including hallucinations, i.e. outputs that
are fluent, but unrelated to the source sentences. These errors are
particularly dangerous, because on the surface the translation can be perceived
as a correct output, especially if the reader does not understand the source
language. We present a case study focusing on model understanding and
regularisation to reduce hallucinations in NMT. We first use feature
attribution methods to study the behaviour of an NMT model that produces
hallucinations. We then leverage these methods to propose a novel loss function
that substantially helps reduce hallucinations and does not require retraining
the model from scratch.
- Abstract(参考訳): ニューラル条件付き言語生成モデルは、ニューラルネットワーク翻訳(NMT)の最先端を実現するが、並列トレーニングデータセットの品質に大きく依存する。
低品質のデータセットでトレーニングすると、これらのモデルは幻覚、すなわち、流動的だが原文とは無関係な出力を含む様々なエラータイプに傾向がある。
これらの誤りは特に危険である、なぜなら表面上は翻訳が正しい出力であると認識でき、特に読者がソース言語を理解していない場合である。
NMTにおける幻覚の軽減を目的としたモデル理解と正規化に着目したケーススタディを提案する。
まず,幻覚を発生させるnmtモデルの行動を研究するために特徴帰属法を用いる。
次に,これらの手法を用いて幻覚を低減し,モデルをスクラッチから再トレーニングする必要のない新しい損失関数を提案する。
関連論文リスト
- Training Language Models on the Knowledge Graph: Insights on Hallucinations and Their Detectability [83.0884072598828]
幻覚は多くの形式があり、普遍的に受け入れられる定義はない。
トレーニングセットにおいて、正しい回答が冗長に現れるような幻覚のみを研究することに集中する。
固定されたデータセットの場合、より大きく長く訓練されたLMは幻覚を少なくする。
固定されたLMの出力の検出器サイズが向上するのに対して、LMのスケールと幻覚の検出可能性との間には逆の関係がある。
論文 参考訳(メタデータ) (2024-08-14T23:34:28Z) - Knowledge Overshadowing Causes Amalgamated Hallucination in Large Language Models [65.32990889402927]
「我々はこの現象を知識の誇張として造る。」
その結果, 幻覚率の増大は, 不均衡比と支配的条件記述の長さに左右されることがわかった。
本稿では,その発生前に幻覚をキャッチするための信号として,オーバーシェーディング条件を用いることを提案する。
論文 参考訳(メタデータ) (2024-07-10T20:37:42Z) - Detecting and Mitigating Hallucination in Large Vision Language Models via Fine-Grained AI Feedback [48.065569871444275]
我々は,LVLM(Large Vision Language Models)における幻覚の検出と緩和について,きめ細かいAIフィードバックを用いて提案する。
プロプライエタリモデルによる小型幻覚アノテーションデータセットを生成する。
そこで本研究では,幻覚緩和モデルの訓練のための選好データセットを自動構築する検出テーマ書き換えパイプラインを提案する。
論文 参考訳(メタデータ) (2024-04-22T14:46:10Z) - Hallucinations in Neural Automatic Speech Recognition: Identifying
Errors and Hallucinatory Models [11.492702369437785]
幻覚は、ソースの発声とは意味的に無関係であるが、それでも流動的でコヒーレントである。
単語誤り率などの一般的なメトリクスは、幻覚モデルと非幻覚モデルとを区別できないことを示す。
本研究は,幻覚を識別する枠組みを考案し,その意味的関係と基礎的真理と流布との関係を解析する。
論文 参考訳(メタデータ) (2024-01-03T06:56:56Z) - Calibrated Language Models Must Hallucinate [11.891340760198798]
最近の言語モデルでは、驚くほどの頻度で、偽のもっとも可聴なテキストを生成する。
この研究は、事前訓練された言語モデルがある種の事実を幻覚させる速度に固有の統計的下限が存在することを示している。
訓練データから真偽を判断できない「任意」事実に対して, 幻覚は言語モデルに対して一定の速度で発生しなければならないことを示す。
論文 参考訳(メタデータ) (2023-11-24T18:29:50Z) - Detecting and Mitigating Hallucinations in Machine Translation: Model
Internal Workings Alone Do Well, Sentence Similarity Even Better [11.84762742895239]
生成した翻訳に対するソースコントリビューションのパーセンテージを評価する手法を提案する。
本手法は,最も重篤な幻覚の検出精度を2倍に向上し,前回のベストアプローチと同等の試験時間で幻覚を緩和することができる。
次に、内部モデルの特徴から離れ、外部ツールを許容すると、言語間埋め込みから文類似性を使用することにより、これらの結果がさらに改善されることを示す。
論文 参考訳(メタデータ) (2022-12-16T17:24:49Z) - Looking for a Needle in a Haystack: A Comprehensive Study of
Hallucinations in Neural Machine Translation [17.102338932907294]
我々はNMT幻覚研究の基礎を設定した。
テスト時に幻覚を緩和する簡単な方法であるDeHallucinatorを提案する。
論文 参考訳(メタデータ) (2022-08-10T12:44:13Z) - Probing Causes of Hallucinations in Neural Machine Translations [51.418245676894465]
本稿では,モデルアーキテクチャの観点から幻覚の原因を探索する手法を提案する。
幻覚には、しばしば欠陥のあるエンコーダ、特に埋め込み、脆弱なクロスアテンションが伴う。
論文 参考訳(メタデータ) (2022-06-25T01:57:22Z) - Detecting Hallucinated Content in Conditional Neural Sequence Generation [165.68948078624499]
出力シーケンスの各トークンが(入力に含まれていない)幻覚化されているかどうかを予測するタスクを提案する。
また、合成データに微調整された事前学習言語モデルを用いて幻覚を検出する方法についても紹介する。
論文 参考訳(メタデータ) (2020-11-05T00:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。