論文の概要: Mitigating Societal Cognitive Overload in the Age of AI: Challenges and Directions
- arxiv url: http://arxiv.org/abs/2504.19990v1
- Date: Mon, 28 Apr 2025 17:06:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.524235
- Title: Mitigating Societal Cognitive Overload in the Age of AI: Challenges and Directions
- Title(参考訳): AI時代における認知的社会的過負荷の軽減 : 課題と方向性
- Authors: Salem Lahlou,
- Abstract要約: AI時代の情報と複雑さの希薄化によって引き起こされる社会的認知過負荷は、人間の幸福と社会的レジリエンスにとって重要な課題となる。
本稿では、認知的過負荷を軽減することは、現在の生活を改善するために必要であるだけでなく、高度なAIの潜在的なリスクをナビゲートするための重要な前提条件でもある、と論じる。
- 参考スコア(独自算出の注目度): 0.9906787204170321
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Societal cognitive overload, driven by the deluge of information and complexity in the AI age, poses a critical challenge to human well-being and societal resilience. This paper argues that mitigating cognitive overload is not only essential for improving present-day life but also a crucial prerequisite for navigating the potential risks of advanced AI, including existential threats. We examine how AI exacerbates cognitive overload through various mechanisms, including information proliferation, algorithmic manipulation, automation anxieties, deregulation, and the erosion of meaning. The paper reframes the AI safety debate to center on cognitive overload, highlighting its role as a bridge between near-term harms and long-term risks. It concludes by discussing potential institutional adaptations, research directions, and policy considerations that arise from adopting an overload-resilient perspective on human-AI alignment, suggesting pathways for future exploration rather than prescribing definitive solutions.
- Abstract(参考訳): AI時代の情報と複雑さの希薄化によって引き起こされる社会的認知過剰は、人間の幸福と社会的レジリエンスにとって重要な課題となる。
本稿では、認知的過負荷を軽減することは、現在の生活を改善するために必要であるだけでなく、現実的な脅威を含む先進的AIの潜在的なリスクをナビゲートするための重要な前提条件でもある、と論じる。
我々は、情報拡散、アルゴリズム操作、自動化不安、規制緩和、意味の侵食など、AIが認知的過負荷をどのように悪化させるかを検討する。
この論文は、AIの安全性に関する議論を、認知的過負荷を中心に再考し、短期的危害と長期的リスクの間の橋渡しとしての役割を強調している。
結論は、人間とAIの整合性に対する過負荷-弾力性の観点から生じる潜在的な制度的適応、研究の方向性、政策的考察を議論し、決定的な解決策を規定するのではなく、将来の探索の道筋を提案することである。
関連論文リスト
- Information Retrieval in the Age of Generative AI: The RGB Model [77.96475639967431]
本稿では,生成型AIツールの利用の増加に伴って生じる複雑な情報ダイナミクスについて,新たな定量的アプローチを提案する。
本稿では,新たなトピックに応答して情報の生成,索引付け,普及を特徴付けるモデルを提案する。
以上の結果から,AI導入の急激なペースとユーザ依存度の増加は,不正確な情報拡散のリスクを増大させる可能性が示唆された。
論文 参考訳(メタデータ) (2025-04-29T10:21:40Z) - AI Awareness [8.537898577659401]
我々は、メタ認知、自己認識、社会的認識、状況認識を含む、AI認知の新たな展望を探求する。
我々は、AIの認識がAI能力とどのように密接に関連しているかを調べ、より意識的なAIエージェントがより高いレベルの知的行動を示す傾向があることを示す。
AIの安全性、アライメント、より広範な倫理的懸念など、AIの認識に関連するリスクについて議論する。
論文 参考訳(メタデータ) (2025-04-25T16:03:50Z) - Open Problems in Machine Unlearning for AI Safety [61.43515658834902]
特定の種類の知識を選択的に忘れたり、抑圧したりするマシンアンラーニングは、プライバシとデータ削除タスクの約束を示している。
本稿では,アンラーニングがAI安全性の包括的ソリューションとして機能することを防止するための重要な制約を特定する。
論文 参考訳(メタデータ) (2025-01-09T03:59:10Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Combining Theory of Mind and Kindness for Self-Supervised Human-AI Alignment [0.0]
現在のAIモデルは、安全よりもタスク最適化を優先しており、意図しない害のリスクにつながっている。
本稿では,これらの諸問題に対処し,競合する目標の整合化を支援することを目的とした,人間に触発された新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-21T22:04:44Z) - Two Types of AI Existential Risk: Decisive and Accumulative [3.5051464966389116]
本稿では,従来の「決定型AI x-リスク仮説」と「累積型AI x-リスク仮説」を対比する。
累積的な視点は、AIリスクに関する一見互換性のない視点を調整できる、と氏は主張する。
論文 参考訳(メタデータ) (2024-01-15T17:06:02Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - AI Potentiality and Awareness: A Position Paper from the Perspective of
Human-AI Teaming in Cybersecurity [18.324118502535775]
我々は、人間とAIのコラボレーションはサイバーセキュリティに価値があると論じている。
私たちは、AIの計算能力と人間の専門知識を取り入れたバランスのとれたアプローチの重要性を強調します。
論文 参考訳(メタデータ) (2023-09-28T01:20:44Z) - Current and Near-Term AI as a Potential Existential Risk Factor [5.1806669555925975]
我々は、現在および短期的な人工知能技術が、現実的なリスクに寄与する可能性があるという考えを問題視する。
我々は、すでに文書化されているAIの効果が、実在するリスク要因として機能する、という仮説を提案する。
私たちの主な貢献は、潜在的なAIリスク要因とそれら間の因果関係の展示です。
論文 参考訳(メタデータ) (2022-09-21T18:56:14Z) - Adversarial Interaction Attack: Fooling AI to Misinterpret Human
Intentions [46.87576410532481]
現在の大きな成功にもかかわらず、ディープラーニングベースのAIシステムは、微妙な敵対的ノイズによって容易に騙されることを示した。
骨格に基づくヒトの相互作用のケーススタディに基づき、相互作用に対する新しい敵対的攻撃を提案する。
本研究では、安全クリティカルなアプリケーションにAIシステムをデプロイする際に慎重に対処する必要があるAIと人間との相互作用ループにおける潜在的なリスクを強調します。
論文 参考訳(メタデータ) (2021-01-17T16:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。