論文の概要: Multispin Physics of AI Tipping Points and Hallucinations
- arxiv url: http://arxiv.org/abs/2508.01097v1
- Date: Fri, 01 Aug 2025 22:24:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.710894
- Title: Multispin Physics of AI Tipping Points and Hallucinations
- Title(参考訳): AIタイピング点のマルチスピン物理と幻覚
- Authors: Neil F. Johnson, Frank Yingjie Huo,
- Abstract要約: ChatGPTは、ユーザーが気付くことなく、中間応答を良い状態から悪い状態に導くことができる。
2024年だけで670億ドルの損失と数名の死者を出したと伝えられている。
AIの「原子」の規模で隠れたチップの不安定性を明らかにする
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Output from generative AI such as ChatGPT, can be repetitive and biased. But more worrying is that this output can mysteriously tip mid-response from good (correct) to bad (misleading or wrong) without the user noticing. In 2024 alone, this reportedly caused $67 billion in losses and several deaths. Establishing a mathematical mapping to a multispin thermal system, we reveal a hidden tipping instability at the scale of the AI's 'atom' (basic Attention head). We derive a simple but essentially exact formula for this tipping point which shows directly the impact of a user's prompt choice and the AI's training bias. We then show how the output tipping can get amplified by the AI's multilayer architecture. As well as helping improve AI transparency, explainability and performance, our results open a path to quantifying users' AI risk and legal liabilities.
- Abstract(参考訳): ChatGPTのような生成AIからの出力は反復的で偏りがある。
しかしもっと心配なのは、このアウトプットが、ユーザーが気づかないうちに、良い(正しい)ものから悪い(誤解か悪い)ものへと、謎に応答する可能性があることだ。
2024年だけで670億ドルの損失と数名の死者を出したと伝えられている。
マルチスピン熱システムへの数学的マッピングを確立し、AIの「原子」のスケールで隠れたチップの不安定性を明らかにする。
私たちは、ユーザの迅速な選択とAIのトレーニングバイアスの影響を直接示す、この転換点について、単純だが本質的に正確な公式を導出します。
次に、AIの多層アーキテクチャによって出力チップがどのように増幅されるかを示す。
AIの透明性、説明可能性、パフォーマンスの向上を支援するだけでなく、私たちの結果は、ユーザのAIリスクと法的責任を定量化する道を開く。
関連論文リスト
- Prompting Science Report 3: I'll pay you or I'll kill you -- but will you care? [0.0]
これは、ビジネス、教育、政策リーダーが厳格なテストを通じてAIを扱う技術的詳細を理解するのを助けるための一連の短いレポートの第3弾である。
論文 参考訳(メタデータ) (2025-08-01T13:23:21Z) - From Intuition to Understanding: Using AI Peers to Overcome Physics Misconceptions [8.60890432697274]
我々は、学生がニュートン力学の概念に関する基本的な物理学的誤解を正すのに役立つAI「ピア」を設計した。
165人の学生によるランダム化対照試験では、AI Peerと標的となる対話を行った学生はテスト後のスコアを平均10.5ポイント上回った。
論文 参考訳(メタデータ) (2025-04-01T04:09:13Z) - Evaluating Intelligence via Trial and Error [59.80426744891971]
本研究では,試行錯誤プロセスにおける失敗回数に基づいて知性を評価するためのフレームワークとして,Survival Gameを紹介した。
フェールカウントの期待と分散の両方が有限である場合、新しい課題に対するソリューションを一貫して見つける能力を示す。
我々の結果は、AIシステムは単純なタスクで自律レベルを達成するが、より複雑なタスクではまだまだ遠いことを示している。
論文 参考訳(メタデータ) (2025-02-26T05:59:45Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - Navigating AI Fallibility: Examining People's Reactions and Perceptions of AI after Encountering Personality Misrepresentations [7.256711790264119]
ハイパーパーソナライズされたAIシステムは、パーソナライズされたレコメンデーションを提供するために人々の特性をプロファイルする。
これらのシステムは、人々の最も個人的な特性を推測する際にエラーに免疫がない。
人格の誤表現に遭遇した後、人々がどのように反応し、AIを知覚するかを検討するための2つの研究を行った。
論文 参考訳(メタデータ) (2024-05-25T21:27:15Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Explainable AI for Natural Adversarial Images [4.387699521196243]
人間は、AIの決定プロセスが自分自身を反映していると仮定する傾向があります。
ここでは、説明可能なAIの手法がこの仮定を破り、参加者が敵画像と標準画像のAI分類を予測するのに役立つかどうかを評価する。
正当性マップと実例の両方がAIエラーのキャッチを容易にするが、その効果は加法的ではなく、正当性マップは実例よりも効果的である。
論文 参考訳(メタデータ) (2021-06-16T20:19:04Z) - The corruptive force of AI-generated advice [0.0]
AIによるアドバイスが人を傷つけるかどうかをテストします。
また、AIの存在に関する透明性が潜在的な害を軽減するかどうかをテストします。
結果、AIの腐敗力は人間と同じくらい強いことが判明」
論文 参考訳(メタデータ) (2021-02-15T13:15:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。