論文の概要: Synthetic Fluency: Hallucinations, Confabulations, and the Creation of Irish Words in LLM-Generated Translations
- arxiv url: http://arxiv.org/abs/2504.07680v1
- Date: Thu, 10 Apr 2025 12:08:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 12:21:34.335117
- Title: Synthetic Fluency: Hallucinations, Confabulations, and the Creation of Irish Words in LLM-Generated Translations
- Title(参考訳): 合成頻度:LLM翻訳におけるハロシン化, 衝突, アイルランド語の創出
- Authors: Sheila Castilho, Zoe Fitzsimmons, Claire Holton, Aoife Mc Donagh,
- Abstract要約: 本研究では,アイルランド語へのLarge Language Model(LLM)翻訳における幻覚について検討する。
我々はこれらの幻覚を動詞と名詞のカテゴリーに分類し、後者のうち6つのパターンを識別する。
以上の結果から, GPT-4.o と GPT-4.o Mini の両方が同様の幻覚を産生するのに対し, Mini モデルは高い周波数で生成することがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This study examines hallucinations in Large Language Model (LLM) translations into Irish, specifically focusing on instances where the models generate novel, non-existent words. We classify these hallucinations within verb and noun categories, identifying six distinct patterns among the latter. Additionally, we analyse whether these hallucinations adhere to Irish morphological rules and what linguistic tendencies they exhibit. Our findings show that while both GPT-4.o and GPT-4.o Mini produce similar types of hallucinations, the Mini model generates them at a significantly higher frequency. Beyond classification, the discussion raises speculative questions about the implications of these hallucinations for the Irish language. Rather than seeking definitive answers, we offer food for thought regarding the increasing use of LLMs and their potential role in shaping Irish vocabulary and linguistic evolution. We aim to prompt discussion on how such technologies might influence language over time, particularly in the context of low-resource, morphologically rich languages.
- Abstract(参考訳): 本研究では,アイルランド語へのLarge Language Model (LLM) 翻訳における幻覚について検討する。
我々はこれらの幻覚を動詞と名詞のカテゴリーに分類し、後者のうち6つのパターンを識別する。
さらに、これらの幻覚がアイルランドの形態学的規則に準拠するかどうか、そしてそれらが示す言語的傾向について分析する。
以上の結果より, GPT-4.o と GPT-4.o Mini の両方が同様の幻覚を産生するのに対し, Mini モデルは高い周波数で生成することがわかった。
分類以外にも、この議論はアイルランド語に対するこれらの幻覚の影響についての投機的な疑問を提起している。
決定的な答えを求めるのではなく、LLMの使用の増加とアイルランド語の語彙と言語進化を形作る役割について考えるための食料を提供する。
我々は,このような技術が言語にどのように影響するか,特に低リソースで形態学的に豊かな言語で議論することを目指している。
関連論文リスト
- How Much Do LLMs Hallucinate across Languages? On Multilingual Estimation of LLM Hallucination in the Wild [11.82100047858478]
幻覚とは、大規模言語モデルが非現実的または不誠実な応答を生成する傾向である。
我々は多言語幻覚検出モデルを訓練し、30言語にわたる大規模な研究を行う。
その結果,LLMは高次情報源言語に対するより幻覚的なトークンでより長い応答を生成するが,言語の長さ正規化幻覚率とそれらのデジタル表現との間には相関がないことが判明した。
論文 参考訳(メタデータ) (2025-02-18T11:32:43Z) - Hallucinations Can Improve Large Language Models in Drug Discovery [10.573861741540853]
LLM(Large Language Models)の幻覚は研究者によって提起されているが、創薬、創薬、探索などの創造性が不可欠である分野においてその潜在能力は高い。
本稿では,幻覚が薬物発見におけるLSMを改善するという仮説を考案する。
論文 参考訳(メタデータ) (2025-01-23T16:45:51Z) - Verb Mirage: Unveiling and Assessing Verb Concept Hallucinations in Multimodal Large Language Models [51.50892380172863]
その結果,ほとんどのMLLMは重度の動詞幻覚に悩まされていることがわかった。
本稿では,動詞の幻覚を軽減するために,動詞の知識に基づく新しいチューニング手法を提案する。
論文 参考訳(メタデータ) (2024-12-06T10:53:47Z) - Multilingual Hallucination Gaps in Large Language Models [5.505634045241288]
フリーフォームテキスト生成において,複数の言語にまたがる幻覚現象について検討する。
これらのギャップは、使用するプロンプトや言語による幻覚応答の頻度の違いを反映している。
その結果, 幻覚率の変動, 特に高次言語と低次言語の違いが明らかになった。
論文 参考訳(メタデータ) (2024-10-23T20:41:51Z) - On Large Language Models' Hallucination with Regard to Known Facts [74.96789694959894]
大規模な言語モデルはファクトイドの質問に答えることに成功したが、幻覚を起こす傾向がある。
正しい解答知識を持つLLMの現象を推論力学の観点から検討する。
我々の研究は、LLMの幻覚が既知の事実について、そしてより重要なのは、幻覚を正確に予測する理由を理解することに光を当てた。
論文 参考訳(メタデータ) (2024-03-29T06:48:30Z) - Fine-grained Hallucination Detection and Editing for Language Models [109.56911670376932]
大規模言語モデル(LM)は、しばしば幻覚と呼ばれる事実的誤りを引き起こす傾向にある。
我々は,幻覚の包括的分類を導入し,幻覚が多様な形態で現れることを議論する。
本稿では, 幻覚自動検出のための新しいタスクを提案し, 新たな評価ベンチマークであるFavaBenchを構築した。
論文 参考訳(メタデータ) (2024-01-12T19:02:48Z) - Don't Believe Everything You Read: Enhancing Summarization Interpretability through Automatic Identification of Hallucinations in Large Language Models [0.0]
本稿では,幻覚に対するLarge Language Models (LLM) の振る舞いを深く掘り下げる。
異なる種類の幻覚を識別するためのトークンレベルのアプローチを定義し、さらにトークンレベルのタグ付けを活用してLLMの解釈可能性と忠実性を改善する。
論文 参考訳(メタデータ) (2023-12-22T00:31:46Z) - Hallucination Augmented Contrastive Learning for Multimodal Large
Language Model [53.65682783591723]
マルチモーダル大規模言語モデル(MLLM)は、自然言語と視覚情報を効率的に統合し、マルチモーダルタスクを処理できることが示されている。
しかし、MLLMは幻覚の基本的な限界に直面しており、誤った情報や偽情報を生成する傾向がある。
本稿では,MLLMにおける幻覚を表現学習の新たな視点から論じる。
論文 参考訳(メタデータ) (2023-12-12T04:05:15Z) - Evaluating Hallucinations in Chinese Large Language Models [65.4771562909392]
我々は,中国大言語モデルにおける幻覚現象を測定するために,HaluQA(中国語幻覚質問回答)というベンチマークを構築した。
GLM-130B と ChatGPT の2種類の幻覚について考察した。
評価のために,モデル出力が幻覚的かどうかを判定するために,GPT-4を用いた自動評価手法を設計する。
論文 参考訳(メタデータ) (2023-10-05T07:57:09Z) - Exploring the Relationship between LLM Hallucinations and Prompt
Linguistic Nuances: Readability, Formality, and Concreteness [6.009751153269125]
本研究では,アクセプションにおける言語的要因,特に可読性,形式性,具体性が幻覚の発生に与える影響について検討する。
以上の結果から,より形式性や具体性が高いと幻覚が低下する傾向が示唆された。
論文 参考訳(メタデータ) (2023-09-20T05:04:16Z) - Hallucinations in Large Multilingual Translation Models [70.10455226752015]
大規模多言語機械翻訳システムでは、多数の言語間で直接翻訳できることが顕著に示されている。
野生に配備されると、これらのモデルが幻覚翻訳を生成し、ユーザーの信頼を著しく損なう可能性があり、安全性の懸念が高まる。
幻覚に関する既存の研究は、主に高ソース言語で訓練された小さなバイリンガルモデルに焦点を当てている。
論文 参考訳(メタデータ) (2023-03-28T16:17:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。