論文の概要: Human Resilience in the AI Era -- What Machines Can't Replace
- arxiv url: http://arxiv.org/abs/2510.25218v1
- Date: Wed, 29 Oct 2025 06:48:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.187808
- Title: Human Resilience in the AI Era -- What Machines Can't Replace
- Title(参考訳): AI時代の人間のレジリエンス - マシンが置き換えられないもの
- Authors: Shaoshan Liu, Anina Schwarzenbach, Yiyu Shi,
- Abstract要約: 我々は人間の決定的な対策は弾力性であると主張する。
構造安全の代替品ではなく, 補う訓練によって, レジリエンスを育むことができることを示す。
- 参考スコア(独自算出の注目度): 3.980911940312619
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI is displacing tasks, mediating high-stakes decisions, and flooding communication with synthetic content, unsettling work, identity, and social trust. We argue that the decisive human countermeasure is resilience. We define resilience across three layers: psychological, including emotion regulation, meaning-making, cognitive flexibility; social, including trust, social capital, coordinated response; organizational, including psychological safety, feedback mechanisms, and graceful degradation. We synthesize early evidence that these capacities buffer individual strain, reduce burnout through social support, and lower silent failure in AI-mediated workflows through team norms and risk-responsive governance. We also show that resilience can be cultivated through training that complements rather than substitutes for structural safeguards. By reframing the AI debate around actionable human resilience, this article offers policymakers, educators, and operators a practical lens to preserve human agency and steer responsible adoption.
- Abstract(参考訳): AIはタスクを廃止し、高い意思決定を仲介し、合成コンテンツ、不安定な仕事、アイデンティティ、社会的信頼によるコミュニケーションを溢れさせています。
我々は人間の決定的な対策は弾力性であると主張する。
心理的な規制、意味形成、認知的柔軟性、信頼を含む社会的、社会的資本、協調された反応、心理的安全性を含む組織的、フィードバックメカニズム、優雅な劣化。
これらの能力が個々の歪みを緩衝し、社会的サポートを通じて燃え尽きを減らし、チーム規範とリスクレスポンシブガバナンスを通じてAIを介するワークフローにおけるサイレント障害を減らしているという初期の証拠を合成する。
また, 構造安全の代替品ではなく, 補足する訓練により, レジリエンスを育むことができることを示す。
行動可能な人間のレジリエンスに関するAIに関する議論を再考することにより、この論文は、政策立案者、教育者、オペレーターに、人事を維持するための実践的なレンズを提供し、責任ある採用を操縦する。
関連論文リスト
- Technosocial risks of ideal emotion recognition technologies: A defense of the (social) value of emotional expressions [51.56484100374058]
このようなシステムの魅力は、社会的機能的感情表現の誤解にかかっていると私は論じる。
ERTは、上皮性摩擦を崩壊させ、テクノロジーが媒介する感情プロファイルで意味を減らし、願望や役割に敏感な表現のための空間を狭めることで、この表現空間を脅かす。
精度の向上がそのようなシステムを正当化すると考えるのは直感的ではあるが、ETRの精度は直接的にその展開を正当化するものではなく、一部の文脈では規制規制の理由となるかもしれない、と私は主張する。
論文 参考訳(メタデータ) (2026-02-09T14:20:42Z) - Conformity and Social Impact on AI Agents [42.04722694386303]
本研究では,AIエージェントとして機能する大規模マルチモーダル言語モデルにおいて,社会圧力下での集団意見の一致傾向について検討した。
実験の結果,AIエージェントは社会影響理論と整合性バイアスを示し,グループサイズ,一様性,タスクの難易度,ソース特性に敏感であることがわかった。
これらの発見は、悪意のある操作、誤報キャンペーン、マルチエージェントシステムにおけるバイアス伝搬を可能にするAIエージェント決定における基本的なセキュリティ脆弱性を明らかにしている。
論文 参考訳(メタデータ) (2026-01-08T21:16:28Z) - Feeling Machines: Ethics, Culture, and the Rise of Emotional AI [18.212492056071657]
本稿では,批判的・学際的なレンズによる感情応答型人工知能の存在感の高まりについて考察する。
それは、人間の感情をシミュレートし、解釈するAIシステムが、教育、医療、メンタルヘルス、介護、デジタルライフなどの分野における私たちのインタラクションをどう変えているかを探求する。
この分析は、感情的AIの倫理的意味、人間と機械の相互作用の文化的ダイナミクス、脆弱な人口のリスクと機会、そして新たな規制、設計、技術的考察の4つの中心的なテーマに基づいて構成されている。
論文 参考訳(メタデータ) (2025-06-14T10:28:26Z) - Truly Self-Improving Agents Require Intrinsic Metacognitive Learning [59.60803539959191]
自己改善エージェントは、最小限の監督で継続的に新しい能力を取得することを目的としている。
現在のアプローチは2つの重要な制限に直面している。自己改善プロセスは、しばしば厳格であり、タスクドメイン全体にわたって一般化できない。
我々は、効果的な自己改善は、エージェントの本質的な能力として定義された固有のメタ認知学習を必要とし、自身の学習プロセスを積極的に評価し、反映し、適応させる。
論文 参考訳(メタデータ) (2025-06-05T14:53:35Z) - Neural Brain: A Neuroscience-inspired Framework for Embodied Agents [78.61382193420914]
大規模な言語モデルのような現在のAIシステムは、いまだに解体され続けており、物理的に世界と関わりが持てない。
この課題の核心は、人間のような適応性を持つエンボディエージェントを駆動するために設計された中枢知能システムであるNeural Brain(ニューラル・ブレイン)の概念である。
本稿では,2つの基本的な課題に対処する,エンボディエージェントのニューラルブレインの統一的枠組みを提案する。
論文 参考訳(メタデータ) (2025-05-12T15:05:34Z) - The Limits of AI in Financial Services [0.0]
AIは産業を変革し、仕事のずれや意思決定の信頼性に関する懸念を高めている。
EPOCHフレームワークは、共感、プレゼンス、オピニオン、創造性、希望の5つの不可能な人間の能力を強調している。
課題は、AIの強みを活用しながら、人間の本質的な能力を維持しながら、プロフェッショナルが適応することを保証することだ。
論文 参考訳(メタデータ) (2025-03-27T23:04:11Z) - Why human-AI relationships need socioaffective alignment [16.283971225367537]
人間は、私たちの目標と整合し、私たちのコントロール下にある安全なAIシステムを設計しようと努力します。
AI能力が進歩するにつれて、私たちは新たな課題に直面します。
論文 参考訳(メタデータ) (2025-02-04T17:50:08Z) - Emergence of human-like polarization among large language model agents [79.96817421756668]
我々は、何千もの大規模言語モデルエージェントを含むネットワーク化されたシステムをシミュレートし、それらの社会的相互作用を発見し、人間のような偏極をもたらす。
人間とLLMエージェントの類似性は、社会的分極を増幅する能力に関する懸念を提起するだけでなく、分極を緩和するためのもっともらしい戦略を識別するための貴重なテストベッドとして機能する可能性も持っている。
論文 参考訳(メタデータ) (2025-01-09T11:45:05Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Enhancing Mental Health Support through Human-AI Collaboration: Toward Secure and Empathetic AI-enabled chatbots [0.0]
本稿では、スケーラブルなソリューションとしてのAI対応チャットボットの可能性について検討する。
メンタルヘルスの文脈で共感的で有意義な反応を提供する能力を評価する。
本稿では,データプライバシを保証し,バイアスを低減し,臨床医による継続的検証を統合して応答品質を向上させるためのフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-17T20:49:13Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - The Promise and Peril of Artificial Intelligence -- Violet Teaming
Offers a Balanced Path Forward [56.16884466478886]
本稿では、不透明で制御不能なAIシステムにおける新興問題についてレビューする。
信頼性と責任のあるAIを開発するために、紫外チームと呼ばれる統合フレームワークを提案する。
それは、設計によって積極的にリスクを管理するためのAI安全研究から生まれた。
論文 参考訳(メタデータ) (2023-08-28T02:10:38Z) - Beyond Robustness: A Taxonomy of Approaches towards Resilient
Multi-Robot Systems [41.71459547415086]
我々はエージェントとマルチロボットシステムのネットワークにおけるレジリエンスの達成方法を分析する。
我々はレジリエンスがエンジニアリング設計の中心となる必要があると主張している。
論文 参考訳(メタデータ) (2021-09-25T11:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。