論文の概要: Looking for a Needle in a Haystack: A Comprehensive Study of
Hallucinations in Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2208.05309v1
- Date: Wed, 10 Aug 2022 12:44:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-11 12:30:32.361075
- Title: Looking for a Needle in a Haystack: A Comprehensive Study of
Hallucinations in Neural Machine Translation
- Title(参考訳): ヘイスタックの針を探す:ニューラルマシン翻訳における幻覚の包括的研究
- Authors: Nuno M. Guerreiro, Elena Voita, Andr\'e F.T. Martins
- Abstract要約: 我々はNMT幻覚研究の基礎を設定した。
テスト時に幻覚を緩和する簡単な方法であるDeHallucinatorを提案する。
- 参考スコア(独自算出の注目度): 17.102338932907294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although the problem of hallucinations in neural machine translation (NMT)
has received some attention, research on this highly pathological phenomenon
lacks solid ground. Previous work has been limited in several ways: it often
resorts to artificial settings where the problem is amplified, it disregards
some (common) types of hallucinations, and it does not validate adequacy of
detection heuristics. In this paper, we set foundations for the study of NMT
hallucinations. First, we work in a natural setting, i.e., in-domain data
without artificial noise neither in training nor in inference. Next, we
annotate a dataset of over 3.4k sentences indicating different kinds of
critical errors and hallucinations. Then, we turn to detection methods and both
revisit methods used previously and propose using glass-box uncertainty-based
detectors. Overall, we show that for preventive settings, (i) previously used
methods are largely inadequate, (ii) sequence log-probability works best and
performs on par with reference-based methods. Finally, we propose
DeHallucinator, a simple method for alleviating hallucinations at test time
that significantly reduces the hallucinatory rate. To ease future research, we
release our annotated dataset for WMT18 German-English data, along with the
model, training data, and code.
- Abstract(参考訳): ニューラルマシン翻訳(nmt)における幻覚の問題は注目されているが、この極めて病的現象の研究には根拠がない。
問題を増幅する人工的な設定をしばしば用い、いくつかの(一般的な)幻覚を無視し、検出ヒューリスティックの妥当性を検証しない。
本稿では,NMT幻覚研究の基礎を定めている。
まず、トレーニングでも推論でも、人工ノイズのないドメイン内データという自然な環境で作業する。
次に、異なる種類の批判的誤りと幻覚を示す3.4k以上の文のデータセットを注釈する。
次に, 従来使用されていた検出手法と再検討手法を両立させ, ガラス箱不確実性検出装置を用いて提案する。
全体としては、予防的設定のためです。
(i) 従来使用されていた手法はほとんど不十分である。
(ii)シーケンスログプロベイラビリティは、参照ベースのメソッドと同等の性能を発揮する。
最後に,テスト時に幻覚を緩和する簡単な方法として,幻覚率を大幅に低減するDeHallucinatorを提案する。
今後の研究を容易にするため、WMT18ドイツ語-英語データの注釈付きデータセットとモデル、トレーニングデータ、コードをリリースする。
関連論文リスト
- Pre-Training Multimodal Hallucination Detectors with Corrupted Grounding Data [4.636499986218049]
マルチモーダル言語モデルは、その出力に幻覚を示し、信頼性を制限できる。
本稿では, 崩壊した地盤データを作成することにより, これらのモデルのサンプル効率を向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-08-30T20:11:00Z) - ANAH-v2: Scaling Analytical Hallucination Annotation of Large Language Models [65.12177400764506]
大規模言語モデル (LLM) は、様々な領域や広範囲のアプリケーションにまたがる、長い形式の質問応答タスクにおいて幻覚を示す。
現在の幻覚検出と緩和データセットはドメインやサイズによって制限されている。
本稿では,幻覚アノテーションデータセットを同時に,段階的にスケールアップする反復的自己学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-05T17:56:38Z) - Detecting and Mitigating Hallucination in Large Vision Language Models via Fine-Grained AI Feedback [48.065569871444275]
我々は,LVLM(Large Vision Language Models)における幻覚の検出と緩和について,きめ細かいAIフィードバックを用いて提案する。
プロプライエタリモデルによる小型幻覚アノテーションデータセットを生成する。
そこで本研究では,幻覚緩和モデルの訓練のための選好データセットを自動構築する検出テーマ書き換えパイプラインを提案する。
論文 参考訳(メタデータ) (2024-04-22T14:46:10Z) - Hallucinations in Neural Automatic Speech Recognition: Identifying
Errors and Hallucinatory Models [11.492702369437785]
幻覚は、ソースの発声とは意味的に無関係であるが、それでも流動的でコヒーレントである。
単語誤り率などの一般的なメトリクスは、幻覚モデルと非幻覚モデルとを区別できないことを示す。
本研究は,幻覚を識別する枠組みを考案し,その意味的関係と基礎的真理と流布との関係を解析する。
論文 参考訳(メタデータ) (2024-01-03T06:56:56Z) - AutoHall: Automated Hallucination Dataset Generation for Large Language Models [56.92068213969036]
本稿では,AutoHallと呼ばれる既存のファクトチェックデータセットに基づいて,モデル固有の幻覚データセットを自動的に構築する手法を提案する。
また,自己コントラディションに基づくゼロリソース・ブラックボックス幻覚検出手法を提案する。
論文 参考訳(メタデータ) (2023-09-30T05:20:02Z) - Detecting and Mitigating Hallucinations in Machine Translation: Model
Internal Workings Alone Do Well, Sentence Similarity Even Better [11.84762742895239]
生成した翻訳に対するソースコントリビューションのパーセンテージを評価する手法を提案する。
本手法は,最も重篤な幻覚の検出精度を2倍に向上し,前回のベストアプローチと同等の試験時間で幻覚を緩和することができる。
次に、内部モデルの特徴から離れ、外部ツールを許容すると、言語間埋め込みから文類似性を使用することにより、これらの結果がさらに改善されることを示す。
論文 参考訳(メタデータ) (2022-12-16T17:24:49Z) - Reducing Hallucinations in Neural Machine Translation with Feature
Attribution [54.46113444757899]
本研究は,NMTにおける幻覚の軽減を目的としたモデル理解と正規化に着目したケーススタディである。
まず,幻覚を発生させるNMTモデルの振る舞いを研究するために,特徴帰属法を用いる。
次に、これらの手法を利用して、幻覚の低減に大きく貢献し、ゼロからモデルを再訓練する必要のない新しい損失関数を提案する。
論文 参考訳(メタデータ) (2022-11-17T20:33:56Z) - Probing Causes of Hallucinations in Neural Machine Translations [51.418245676894465]
本稿では,モデルアーキテクチャの観点から幻覚の原因を探索する手法を提案する。
幻覚には、しばしば欠陥のあるエンコーダ、特に埋め込み、脆弱なクロスアテンションが伴う。
論文 参考訳(メタデータ) (2022-06-25T01:57:22Z) - Detecting Hallucinated Content in Conditional Neural Sequence Generation [165.68948078624499]
出力シーケンスの各トークンが(入力に含まれていない)幻覚化されているかどうかを予測するタスクを提案する。
また、合成データに微調整された事前学習言語モデルを用いて幻覚を検出する方法についても紹介する。
論文 参考訳(メタデータ) (2020-11-05T00:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。