論文の概要: Accuracy Paradox in Large Language Models: Regulating Hallucination Risks in Generative AI
- arxiv url: http://arxiv.org/abs/2509.13345v1
- Date: Fri, 12 Sep 2025 19:41:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.541129
- Title: Accuracy Paradox in Large Language Models: Regulating Hallucination Risks in Generative AI
- Title(参考訳): 大規模言語モデルにおける精度パラドックス:生成AIにおける幻覚リスクの制御
- Authors: Zihao Li, Weiwei Yi, Jiahong Chen,
- Abstract要約: 製造された、誤解を招く、単純化された、または信頼できないアウトプットの生成である幻覚は、衝動的課題として現れている。
本稿は、精度の過度な依存が問題を誤認し、非生産的効果、すなわち精度パラドックスを主張する。
- 参考スコア(独自算出の注目度): 7.068082004005692
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Large Language Models (LLMs) permeate everyday decision-making, their epistemic and societal risks demand urgent scrutiny. Hallucinations, the generation of fabricated, misleading, oversimplified or untrustworthy outputs, has emerged as imperative challenges. While regulatory, academic, and technical discourse position accuracy as the principal benchmark for mitigating such harms, this article contends that overreliance on accuracy misdiagnoses the problem and has counterproductive effect: the accuracy paradox. Drawing on interdisciplinary literatures, this article develops a taxonomy of hallucination types and shows the paradox along three intertwining dimensions: outputs, individuals and society. First, accuracy functions as a superficial proxy for reliability, incentivising the optimisation of rhetorical fluency and surface-level correctness over epistemic trustworthiness. This encourages passive user trust in outputs that appear accurate but epistemically untenable. Second, accuracy as a singular metric fails to detect harms that are not factually false but are nonetheless misleading, value-laden, or socially distorting, including consensus illusions, sycophantic alignment, and subtle manipulation. Third, regulatory overemphasis on accuracy obscures the wider societal consequences of hallucination, including social sorting, privacy violations, equity harms, epistemic convergence that marginalises dissent, reduces pluralism, and causes social deskilling. By examining the EU AI Act, GDPR, and DSA, the article argues that current regulations are not yet structurally equipped to address these epistemic, relational, and systemic harms and exacerbated by the overreliance on accuracy. By exposing such conceptual and practical challenges, this article calls for a fundamental shift towards pluralistic, context-aware, and manipulation-resilient approaches to AI trustworthy governance.
- Abstract(参考訳): 大きな言語モデル(LLM)が日常的な意思決定に浸透するにつれて、彼らの疫学や社会的リスクは緊急の精査を要求する。
製造された、誤解を招く、単純化された、または信頼できないアウトプットの生成である幻覚は、衝動的課題として現れている。
このような害を軽減するための主要な指標として、規制、学術、技術談話の位置精度が挙げられているが、この記事では、正確性に対する過度な依存は問題を誤認し、非生産的効果である精度パラドックス(英語版)を主張する。
本論文は,学際的な文献に基づいて,幻覚の分類法を開発し,アウトプット,個人,社会の3つの側面に沿ったパラドックスを示す。
第一に、正確性は信頼性の表層的プロキシとして機能し、レトリック流速の最適化と、てんかんの信頼性に対する表面的正しさを刺激する。
これにより、正確に見えるが認識不可能なアウトプットに対する受動的ユーザ信頼が促進される。
第二に、単一のメートル法としての正確さは、実際は間違っていないが、誤解を招く、価値を導いたり、社会的に歪んだり、幻覚、幻覚、幻覚的アライメント、微妙な操作など、害を検出するのに失敗する。
第三に、正確性に対する規制の過大評価は、社会的ソート、プライバシー侵害、株式の害、不満を減らし、多元主義を減らし、社会的デマシリングを引き起こすような、より広い社会的帰結を曖昧にする。
EUのAI法、GDPR、DSAを調べることで、現在の規制は、これらのてんかん、リレーショナル、および体系的な危害に対処する構造的にはまだ装備されておらず、正確性への過度な依存によって悪化している、と論じている。
このような概念的かつ実践的な課題を明らかにすることで、この記事では、AI信頼できるガバナンスに対する多元的、コンテキスト対応、そして操作耐性のあるアプローチへの根本的なシフトを訴える。
関連論文リスト
- Disentangling the Drivers of LLM Social Conformity: An Uncertainty-Moderated Dual-Process Mechanism [19.07643218338789]
大規模言語モデル(LLM)は協力チームに統合され、その社会的適合性は重要な懸念事項として浮上している。
ヒトにおいて、適合性は情報的影響(正確性のためのグループキューの合理的使用)または規範的影響(承認のための社会的圧力)から生じる。
本研究では、行動経済学から情報カスケードパラダイムを適応させ、2人のドライバーを定量的に切り離し、適度な効果を調査する。
論文 参考訳(メタデータ) (2025-08-17T03:53:55Z) - Machine Bullshit: Characterizing the Emergent Disregard for Truth in Large Language Models [57.834711966432685]
哲学者ハリー・フランクフルト(Harry Frankfurt)によって概念化されたブルシット(Bullshit)は、その真理の価値を問わない言明を指す。
本稿では,大言語モデルの真偽に対する無関心を定量化する新しい指標であるブルシット指数を紹介する。
我々は、政治的文脈で一般的な機械いじめを観察し、軽快な言葉が支配的な戦略である。
論文 参考訳(メタデータ) (2025-07-10T07:11:57Z) - Machine Mirages: Defining the Undefined [1.779336682160787]
マルチモーダル・マシン・インテリジェンス・システムは 新しい種類の認知異常を 示し始めた マシン・ミラージュ
これには妄想、錯覚、コミュニケーション、幻覚、誤帰、誤帰、意味的ドリフト、意味的圧縮、誇張、因果推論の失敗が含まれる。
この記事では、いくつかのエラーを示し、これらの失敗は明示的に定義され、体系的に評価されなければならない、と論じます。
論文 参考訳(メタデータ) (2025-06-03T11:45:38Z) - Embracing Contradiction: Theoretical Inconsistency Will Not Impede the Road of Building Responsible AI Systems [0.6906005491572401]
このポジションペーパーでは、Responsible AI(RAI)メトリクスでよく見られる理論上の矛盾は、排除すべき欠陥ではなく、価値のある機能として受け入れるべきである、と論じている。
メトリクスを異なる目的として扱うことで、これらの矛盾をナビゲートすることは、3つの重要な利点をもたらすと我々は主張する。
論文 参考訳(メタデータ) (2025-05-23T17:48:09Z) - Uncertainty, bias and the institution bootstrapping problem [0.0]
エージェントが既に存在するという誤った信念が、このパラドックスを解決できると提案する。
これらの要因がブートストラップ問題をどのように緩和するかを示す。
我々の分析は、理想化された合理性だけでなく、人間のような認知的制約を制度的出現とレジリエンスのモデルに組み込むことの重要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-04-30T12:36:06Z) - Calibrating Verbal Uncertainty as a Linear Feature to Reduce Hallucinations [51.92795774118647]
LLMの表現空間における1つの線形特徴によって「動詞の不確実性」が支配されることがわかった。
これはモデルの実際の意味的不確実性と適度な相関しか持たないことを示す。
論文 参考訳(メタデータ) (2025-03-18T17:51:04Z) - Uncertainty in Language Models: Assessment through Rank-Calibration [65.10149293133846]
言語モデル(LM)は、自然言語生成において有望な性能を示している。
与えられた入力に応答する際の不確実性を正確に定量化することは重要である。
我々は、LMの確実性と信頼性を評価するために、Rank$-$Calibration$と呼ばれる斬新で実用的なフレームワークを開発する。
論文 参考訳(メタデータ) (2024-04-04T02:31:05Z) - Navigating the Grey Area: How Expressions of Uncertainty and
Overconfidence Affect Language Models [74.07684768317705]
LMはプロンプトにおける確実性のマーカーに非常に敏感であり、アクーは80%以上変化している。
その結果,高い確実性の表現は低い表現に比べて精度が低下し,事実動詞が性能を損なうのに対して,明らかな表現はパフォーマンスに寄与することがわかった。
これらの関連性は、LMが真に不確実性を反映するのではなく、観察された言語の使用に基づいていることを示唆している。
論文 参考訳(メタデータ) (2023-02-26T23:46:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。