論文の概要: Competition for attention predicts good-to-bad tipping in AI
- arxiv url: http://arxiv.org/abs/2602.14370v1
- Date: Mon, 16 Feb 2026 00:43:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.032604
- Title: Competition for attention predicts good-to-bad tipping in AI
- Title(参考訳): 注目のための競争はAIの良質なチップを予測する
- Authors: Neil F. Johnson, Frank Y. Huo,
- Abstract要約: 世界の人口の半数以上が、インターネット接続なしでChatGPTのような言語モデルを実行できるデバイスを持っている。
我々は、機械の注意を競うために、このようなエッジAIにおいて、潜在的に危険なチップの大規模なクラスが、原子論的なスケールで発生していることを示します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: More than half the global population now carries devices that can run ChatGPT-like language models with no Internet connection and minimal safety oversight -- and hence the potential to promote self-harm, financial losses and extremism among other dangers. Existing safety tools either require cloud connectivity or discover failures only after harm has occurred. Here we show that a large class of potentially dangerous tipping originates at the atomistic scale in such edge AI due to competition for the machinery's attention. This yields a mathematical formula for the dynamical tipping point n*, governed by dot-product competition for attention between the conversation's context and competing output basins, that reveals new control levers. Validated against multiple AI models, the mechanism can be instantiated for different definitions of 'good' and 'bad' and hence in principle applies across domains (e.g. health, law, finance, defense), changing legal landscapes (e.g. EU, UK, US and state level), languages, and cultural settings.
- Abstract(参考訳): 世界の人口の半数以上が、インターネット接続のないChatGPTのような言語モデルを実行でき、安全を最小限に抑えることができるデバイスを持っている。
既存の安全ツールは、クラウド接続を必要とするか、障害が発生した後にのみ障害を発見する。
ここでは、機械の注意を競うために、このようなエッジAIにおいて、潜在的に危険なチップの大規模なクラスが、原子論的なスケールで発生していることを示す。
これにより、会話のコンテキストと競合する出力盆地の間の注意のためのドット積競合によって支配される動的先端点 n* の数学的公式が得られ、新しい制御レバーが明らかにされる。
複数のAIモデルに対して検証されたこのメカニズムは、"良い"と"悪い"の定義が異なるため、原則として、ドメイン(例えば、健康、法律、財務、防衛)、法的景観(例えば、EU、英国、米国、州レベル)、言語、文化設定に適用される。
関連論文リスト
- The AI Risk Spectrum: From Dangerous Capabilities to Existential Threats [0.0]
本稿は、個々のユーザーに影響を与える現在の害から、人類の生存を危うくする現実的な脅威まで、AIリスクの全スペクトラムをマッピングする。
これらのリスクを3つの主要な因果分類に分類する。
私たちのゴールは、読者がAIリスクの全体像を理解するのを助けることです。
論文 参考訳(メタデータ) (2025-08-19T10:05:51Z) - When Autonomy Goes Rogue: Preparing for Risks of Multi-Agent Collusion in Social Systems [78.04679174291329]
悪意のあるマルチエージェントシステム(MAS)のリスクをシミュレートするための概念実証手法を提案する。
この枠組みを、誤情報拡散とeコマース詐欺という2つのリスクの高い分野に適用する。
その結果,分散システムの方が,集中型システムよりも悪意ある行動を実行するのに効果的であることが示唆された。
論文 参考訳(メタデータ) (2025-07-19T15:17:30Z) - Neurodivergent Influenceability as a Contingent Solution to the AI Alignment Problem [1.3905735045377272]
AIアライメント問題は、人工知能(AI)システムが人間の価値観に従って行動することを保証することに重点を置いている。
狭義のAIからAI(Artificial General Intelligence, AGI)やスーパーインテリジェンス(Superintelligence, 超知能)への進化に伴い、制御に対する恐怖と現実的なリスクがエスカレートした。
ここでは、避けられないAIのミスアライメントを受け入れることが、競合するエージェントの動的なエコシステムを育むための緊急戦略であるかどうかを検討する。
論文 参考訳(メタデータ) (2025-05-05T11:33:18Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Regulating Chatbot Output via Inter-Informational Competition [8.168523242105763]
本稿では、AI関連コンテンツリスクとそれに対応する規制提案を再評価するためのヤードスティックを開発する。
情報市場における情報ソース間の十分な競争は、生成的AI技術によって引き起こされるコンテンツリスクを十分に軽減し、解決することができる、と同社は主張する。
論文 参考訳(メタデータ) (2024-03-17T00:11:15Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - AI Development Race Can Be Mediated on Heterogeneous Networks [8.131948859165432]
人種間の相互作用構造の違いが集団的選択や規制行動の要件をいかに変えられるかを検討する。
その結果, 相互関係や相互影響の点で強い多様性を示す場合, 均質な環境に存在する対立は著しく減少することが示唆された。
論文 参考訳(メタデータ) (2020-12-30T17:23:18Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。