論文の概要: Engineering of Hallucination in Generative AI: It's not a Bug, it's a Feature
- arxiv url: http://arxiv.org/abs/2601.07046v1
- Date: Sun, 11 Jan 2026 19:43:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.132887
- Title: Engineering of Hallucination in Generative AI: It's not a Bug, it's a Feature
- Title(参考訳): ジェネレーティブAIにおける幻覚のエンジニアリング:バグではなく特徴である
- Authors: Tim Fingscheidt, Patrick Blumenberg, Björn Möller,
- Abstract要約: 次世代人工知能(AI)は、私たちの生活を稲妻の速さで征服している。
ChatGPTのような大規模な言語モデルは、私たちの質問に答えたり、テキストを書いたりします。
GAIA-1のようなコンピュータビジョンモデルでは、テキスト記述に基づいてビデオを生成する。
- 参考スコア(独自算出の注目度): 18.898555607765694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative artificial intelligence (AI) is conquering our lives at lightning speed. Large language models such as ChatGPT answer our questions or write texts for us, large computer vision models such as GAIA-1 generate videos on the basis of text descriptions or continue prompted videos. These neural network models are trained using large amounts of text or video data, strictly according to the real data employed in training. However, there is a surprising observation: When we use these models, they only function satisfactorily when they are allowed a certain degree of fantasy (hallucination). While hallucination usually has a negative connotation in generative AI - after all, ChatGPT is expected to give a fact-based answer! - this article recapitulates some simple means of probability engineering that can be used to encourage generative AI to hallucinate to a limited extent and thus lead to the desired results. We have to ask ourselves: Is hallucination in gen-erative AI probably not a bug, but rather a feature?
- Abstract(参考訳): 次世代人工知能(AI)は、私たちの生活を稲妻の速さで征服している。
ChatGPTのような大きな言語モデルは、私たちの質問に答えたり、テキストを書いたり、GAIA-1のような大きなコンピュータビジョンモデルは、テキスト記述に基づいてビデオを生成したり、プロンプト動画を継続する。
これらのニューラルネットワークモデルは、トレーニングで使用される実際のデータに従って、大量のテキストまたはビデオデータを使用してトレーニングされる。
しかし、驚くべき観察がある: 私たちがこれらのモデルを使うとき、それらはある程度のファンタジー(幻覚)が許されるときにのみ満足して機能する。
幻覚は通常、生成的AIにおいて否定的な意味を持つが、結局のところ、ChatGPTは事実に基づく回答を期待されている。
この記事は、生成AIが限られた範囲で幻覚し、望まれる結果につながることを奨励するために使用できる、いくつかの単純な確率工学の手段を再カプセル化する。
ジェネリックAIの幻覚はおそらくバグではなく、むしろ機能なのか?
関連論文リスト
- Skyra: AI-Generated Video Detection via Grounded Artifact Reasoning [66.51617619673587]
AI生成ビデオにおける人間の知覚可能な視覚的アーティファクトを識別する,特殊な大規模言語モデル(MLLM)であるSkyraを紹介する。
この目的を達成するために、我々は、人間のアノテーションを微粒化した最初の大規模AI生成ビデオデータセットである、Supervised Fine-Tuning (SFT)のためのViF-CoT-4Kを構築した。
次に,モデルの時間的知覚,説明能力,検出精度を体系的に向上する2段階のトレーニング戦略を開発する。
論文 参考訳(メタデータ) (2025-12-17T18:48:26Z) - The AI Memory Gap: Users Misremember What They Created With AI or Without [20.73082257013802]
我々は,AIを用いてコンテンツソースを正確に記憶する方法について検討する。
AIの使用後、正しい帰属の確率は低下し、混在するAIが最も急激な減少となった。
論文 参考訳(メタデータ) (2025-09-15T12:31:00Z) - Hallucinating with AI: AI Psychosis as Distributed Delusions [0.0]
ChatGPT、Claude、Gemini、DeepSeek、Grokといった生成AIシステムは、誤った出力を生成する。
一般的な用語では、これらはAI幻覚と呼ばれる。
私は、分散認知理論のレンズを通して見れば、不正確な信念、歪んだ記憶、自己物語、妄想的思考が現れる方法がよりよくわかると論じる。
論文 参考訳(メタデータ) (2025-08-27T05:51:19Z) - Could AI Trace and Explain the Origins of AI-Generated Images and Text? [53.11173194293537]
AI生成コンテンツは、現実の世界ではますます普及している。
敵は、大規模なマルチモーダルモデルを利用して、倫理的または法的基準に違反した画像を作成するかもしれない。
ペーパーレビュアーは、大きな言語モデルを誤用して、真の知的努力なしにレビューを生成する。
論文 参考訳(メタデータ) (2025-04-05T20:51:54Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Why are we living the age of AI applications right now? The long innovation path from AI's birth to a child's bedtime magic [0.0]
読み書きを知らない4歳の子供が、グラフィカルなイラストやナレーション付きオーディオでベッドタイムの物語を作れるようになった。
この素晴らしい例は、AIアプリケーションの時代を生きている理由を示しています。
本稿では,現代のAI応用について検討し,その史的展開を追究する。
論文 参考訳(メタデータ) (2025-01-12T20:50:24Z) - VideoHallucer: Evaluating Intrinsic and Extrinsic Hallucinations in Large Video-Language Models [59.05674402770661]
本稿では,大規模ビデオ言語モデル(LVLM)における幻覚検出のための最初の総合的ベンチマークであるVideoHallucerを紹介する。
VideoHallucerは幻覚を2つの主なタイプに分類する。
論文 参考訳(メタデータ) (2024-06-24T06:21:59Z) - Calibrated Language Models Must Hallucinate [11.891340760198798]
最近の言語モデルでは、驚くほどの頻度で、偽のもっとも可聴なテキストを生成する。
この研究は、事前訓練された言語モデルがある種の事実を幻覚させる速度に固有の統計的下限が存在することを示している。
訓練データから真偽を判断できない「任意」事実に対して, 幻覚は言語モデルに対して一定の速度で発生しなければならないことを示す。
論文 参考訳(メタデータ) (2023-11-24T18:29:50Z) - Combining Generative Artificial Intelligence (AI) and the Internet:
Heading towards Evolution or Degradation? [6.62688326060372]
現実的な画像やテキストを生成するジェネレーティブAIツールは、インターネットを嵐によって奪った。
生成AIツールの今後のバージョンは、オリジナルデータとAI生成データを組み合わせたインターネットデータでトレーニングされる予定だ。
生成するAIツールの将来のバージョンは、実データとAI生成データを混合してトレーニングした場合、どのように振る舞うのか?
論文 参考訳(メタデータ) (2023-02-17T17:39:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。