論文の概要: Beyond Accuracy: Rethinking Hallucination and Regulatory Response in Generative AI
- arxiv url: http://arxiv.org/abs/2509.13345v2
- Date: Thu, 23 Oct 2025 20:49:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-27 15:45:42.311767
- Title: Beyond Accuracy: Rethinking Hallucination and Regulatory Response in Generative AI
- Title(参考訳): 正確性を超えて - ジェネレーティブAIにおける幻覚と規制応答を再考する
- Authors: Zihao Li, Weiwei Yi, Jiahong Chen,
- Abstract要約: 生成AIにおける幻覚は、しばしば、実際正しい出力を生成する技術的失敗として扱われる。
本稿では, 規制と評価の枠組みが幻覚の狭い見方をいかに受け継いだのかを批判的に考察する。
- 参考スコア(独自算出の注目度): 7.068082004005692
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hallucination in generative AI is often treated as a technical failure to produce factually correct output. Yet this framing underrepresents the broader significance of hallucinated content in language models, which may appear fluent, persuasive, and contextually appropriate while conveying distortions that escape conventional accuracy checks. This paper critically examines how regulatory and evaluation frameworks have inherited a narrow view of hallucination, one that prioritises surface verifiability over deeper questions of meaning, influence, and impact. We propose a layered approach to understanding hallucination risks, encompassing epistemic instability, user misdirection, and social-scale effects. Drawing on interdisciplinary sources and examining instruments such as the EU AI Act and the GDPR, we show that current governance models struggle to address hallucination when it manifests as ambiguity, bias reinforcement, or normative convergence. Rather than improving factual precision alone, we argue for regulatory responses that account for languages generative nature, the asymmetries between system and user, and the shifting boundaries between information, persuasion, and harm.
- Abstract(参考訳): 生成AIにおける幻覚は、しばしば、実際正しい出力を生成する技術的失敗として扱われる。
しかし、このフレーミングは、従来の精度チェックから逃れる歪みを伝達しながら、流動的で説得力があり、文脈的に適切に見える言語モデルにおける幻覚的内容の幅広い重要性をあらわしている。
本稿は, 意識, 影響, 影響の深い質問に対して表面の妥当性を優先した, 幻覚の狭い視点を, 規制と評価の枠組みがいかに受け継いだかを批判的に考察する。
本稿では,幻覚のリスクを理解するための階層的アプローチを提案する。
学際的な資料とEUのAI法やGDPRなどの調査対象に基づいて、現在のガバナンスモデルは、曖昧さ、バイアス強化、規範的な収束を示すときに幻覚に対処するのに苦労していることを示す。
事実の正確性だけを改善するのではなく、言語生成性、システムとユーザ間の対称性、情報と説得と害の境界のシフトを考慮に入れた規制的な応答を論じる。
関連論文リスト
- Disentangling the Drivers of LLM Social Conformity: An Uncertainty-Moderated Dual-Process Mechanism [19.07643218338789]
大規模言語モデル(LLM)は協力チームに統合され、その社会的適合性は重要な懸念事項として浮上している。
ヒトにおいて、適合性は情報的影響(正確性のためのグループキューの合理的使用)または規範的影響(承認のための社会的圧力)から生じる。
本研究では、行動経済学から情報カスケードパラダイムを適応させ、2人のドライバーを定量的に切り離し、適度な効果を調査する。
論文 参考訳(メタデータ) (2025-08-17T03:53:55Z) - Machine Bullshit: Characterizing the Emergent Disregard for Truth in Large Language Models [57.834711966432685]
哲学者ハリー・フランクフルト(Harry Frankfurt)によって概念化されたブルシット(Bullshit)は、その真理の価値を問わない言明を指す。
本稿では,大言語モデルの真偽に対する無関心を定量化する新しい指標であるブルシット指数を紹介する。
我々は、政治的文脈で一般的な機械いじめを観察し、軽快な言葉が支配的な戦略である。
論文 参考訳(メタデータ) (2025-07-10T07:11:57Z) - Machine Mirages: Defining the Undefined [1.779336682160787]
マルチモーダル・マシン・インテリジェンス・システムは 新しい種類の認知異常を 示し始めた マシン・ミラージュ
これには妄想、錯覚、コミュニケーション、幻覚、誤帰、誤帰、意味的ドリフト、意味的圧縮、誇張、因果推論の失敗が含まれる。
この記事では、いくつかのエラーを示し、これらの失敗は明示的に定義され、体系的に評価されなければならない、と論じます。
論文 参考訳(メタデータ) (2025-06-03T11:45:38Z) - Embracing Contradiction: Theoretical Inconsistency Will Not Impede the Road of Building Responsible AI Systems [0.6906005491572401]
このポジションペーパーでは、Responsible AI(RAI)メトリクスでよく見られる理論上の矛盾は、排除すべき欠陥ではなく、価値のある機能として受け入れるべきである、と論じている。
メトリクスを異なる目的として扱うことで、これらの矛盾をナビゲートすることは、3つの重要な利点をもたらすと我々は主張する。
論文 参考訳(メタデータ) (2025-05-23T17:48:09Z) - Uncertainty, bias and the institution bootstrapping problem [0.0]
エージェントが既に存在するという誤った信念が、このパラドックスを解決できると提案する。
これらの要因がブートストラップ問題をどのように緩和するかを示す。
我々の分析は、理想化された合理性だけでなく、人間のような認知的制約を制度的出現とレジリエンスのモデルに組み込むことの重要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-04-30T12:36:06Z) - Calibrating Verbal Uncertainty as a Linear Feature to Reduce Hallucinations [51.92795774118647]
LLMの表現空間における1つの線形特徴によって「動詞の不確実性」が支配されることがわかった。
これはモデルの実際の意味的不確実性と適度な相関しか持たないことを示す。
論文 参考訳(メタデータ) (2025-03-18T17:51:04Z) - Uncertainty in Language Models: Assessment through Rank-Calibration [65.10149293133846]
言語モデル(LM)は、自然言語生成において有望な性能を示している。
与えられた入力に応答する際の不確実性を正確に定量化することは重要である。
我々は、LMの確実性と信頼性を評価するために、Rank$-$Calibration$と呼ばれる斬新で実用的なフレームワークを開発する。
論文 参考訳(メタデータ) (2024-04-04T02:31:05Z) - Navigating the Grey Area: How Expressions of Uncertainty and
Overconfidence Affect Language Models [74.07684768317705]
LMはプロンプトにおける確実性のマーカーに非常に敏感であり、アクーは80%以上変化している。
その結果,高い確実性の表現は低い表現に比べて精度が低下し,事実動詞が性能を損なうのに対して,明らかな表現はパフォーマンスに寄与することがわかった。
これらの関連性は、LMが真に不確実性を反映するのではなく、観察された言語の使用に基づいていることを示唆している。
論文 参考訳(メタデータ) (2023-02-26T23:46:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。