論文の概要: The Geometry of Learning Under AI Delegation
- arxiv url: http://arxiv.org/abs/2603.02950v1
- Date: Tue, 03 Mar 2026 13:01:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.800746
- Title: The Geometry of Learning Under AI Delegation
- Title(参考訳): AIデリゲーションによる学習の幾何学
- Authors: Lingxiao Huang, Nisheeth K. Vishnoi,
- Abstract要約: AIシステムがツールからコラボレータへとシフトするにつれ、人間が依存するスキルが時間とともにどのように変化するかが中心的な疑問である。
本研究では,人間のスキルとAIデリゲーションを結合力学系としてモデル化し,この問題を数学的に研究する。
我々の結果は、AI支援が長期にわたる人間のパフォーマンスとスキルを損なうおそれのあるメカニズムとして、インセンティブやミスアライメントではなく、安定性を識別する。
- 参考スコア(独自算出の注目度): 24.790811527847527
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As AI systems shift from tools to collaborators, a central question is how the skills of humans relying on them change over time. We study this question mathematically by modeling the joint evolution of human skill and AI delegation as a coupled dynamical system. In our model, delegation adapts to relative performance, while skill improves through use and decays under non-use; crucially, both updates arise from optimizing a single performance metric measuring expected task error. Despite this local alignment, adaptive AI use fundamentally alters the global stability structure of human skill acquisition. Beyond the high-skill equilibrium of human-only learning, the system admits a *stable* low-skill equilibrium corresponding to persistent reliance, separated by a sharp basin boundary that makes early decisions effectively irreversible under the induced dynamics. We further show that AI assistance can strictly improve short-run performance while inducing persistent long-run performance loss relative to the no-AI baseline, driven by a negative feedback between delegation and practice. We characterize how AI quality deforms the basin boundary and show that these effects are robust to noise and asymmetric trust updates. Our results identify stability, not incentives or misalignment, as the central mechanism by which AI assistance can undermine long-run human performance and skill.
- Abstract(参考訳): AIシステムがツールからコラボレータへと移行するにつれ、人間が依存するスキルが時間とともにどのように変化するのかが問題になる。
本研究では,人間のスキルとAIデリゲーションを結合力学系としてモデル化し,この問題を数学的に研究する。
我々のモデルでは、デリゲートは相対的なパフォーマンスに適応するが、非使用下での使用と劣化によってスキルは向上する。
この局所的なアライメントにもかかわらず、アダプティブAIの使用は、人間のスキル獲得のグローバルな安定性構造を根本的に変える。
人間のみの学習の高スキル均衡の他に、システムは持続的依存に対応する*安定*低スキル均衡を認め、鋭い盆地境界によって分離され、誘導力学の下で早期決定を効果的に不可逆化する。
さらに,AIアシストは,非AIベースラインに対する持続的長期的パフォーマンス損失を誘導し,デリゲートとプラクティス間の負のフィードバックによって,ショートランパフォーマンスを厳密に改善できることを示す。
我々は、AIの品質が境界線をどのように変形させるかを特徴付け、これらの効果がノイズや非対称な信頼更新に対して堅牢であることを示す。
我々の結果は、AI支援が長期にわたる人間のパフォーマンスとスキルを損なうおそれのあるメカニズムとして、インセンティブやミスアライメントではなく、安定性を識別する。
関連論文リスト
- Align When They Want, Complement When They Need! Human-Centered Ensembles for Adaptive Human-AI Collaboration [13.041288521972563]
人間とAIの意思決定において、人間の専門知識を補完するAIを設計することは、人間とAIのコラボレーションを強化する自然な戦略である。
一致したAIは、信頼を育みながら、最適な人間の行動を補強し、人間とAIチームのパフォーマンスを低下させるリスクを負う。
我々は、2つの専門的AIモデルの間で戦略的に切り替える、人間中心の適応型AIアンサンブルを新たに導入する。
論文 参考訳(メタデータ) (2026-02-23T18:22:58Z) - EmboCoach-Bench: Benchmarking AI Agents on Developing Embodied Robots [68.29056647487519]
Embodied AIは、高忠実度シミュレーションと大規模データ収集によって実現されている。
しかし、このスケーリング能力は、労働集約的な手作業の監視に依存しているため、いまだにボトルネックになっている。
実装ポリシーを自律的に構築するための LLM エージェントの能力を評価するベンチマークである textscEmboCoach-Bench を紹介する。
論文 参考訳(メタデータ) (2026-01-29T11:33:49Z) - StablePDENet: Enhancing Stability of Operator Learning for Solving Differential Equations [15.953048749834716]
演算子学習をmin-max最適化問題として定式化し、モデルが最悪の入力摂動に対してトレーニングされ、正規条件と逆条件の両方で一貫した性能を達成する。
その結果、オペレータ学習における安定性を考慮したトレーニングの重要性を強調し、現実のアプリケーションで信頼性の高いニューラルネットワークPDEソルバを開発するための基盤を提供する。
論文 参考訳(メタデータ) (2026-01-10T07:38:21Z) - Generative AI for Social Impact [37.37093679341245]
AI for Social Impact(AI4SI)は、公衆衛生、保護、セキュリティにおいて魅力的な成果を上げている。
我々は,このボトルネックを,限られたデータや信頼できないデータから生じる観察的不足,決定や非定常性に関わる政策課題,人間とAIの整合性の摩擦という3つのギャップを通じて特徴づける。
我々は、生成AIがこれらのギャップを埋める統一的な経路を提供すると主張する。
論文 参考訳(メタデータ) (2026-01-05T02:44:39Z) - AI Autonomy Coefficient ($α$): Defining Boundaries for Responsible AI Systems [0.15293427903448018]
現代のAIシステムの統合性は、Human-in-the-Loopモデルの誤用によって損なわれる。
機能独立の定量的レベルを示すためにAIシステムを必要とするAI-First, Human-Empowered(AFHE)パラダイムを導入する。
AFHEは、現代のAIシステムにおいて、検証可能な自律性、透明性、持続的な保守性を保証するためのメトリック駆動型アプローチを提供する、と結論付けています。
論文 参考訳(メタデータ) (2025-12-12T05:41:20Z) - Guided Self-Evolving LLMs with Minimal Human Supervision [53.111086364268566]
無誘導の自己進化システムは、しばしば訓練として素早く、または劣化する。
R-Fewはガイド付きセルフプレイチャレンジャー(Self-Play Challenger)買収フレームワークで、コンテキスト内接地と混合トレーニングを通じて、軽量な人間の監視を取り入れている。
R-Fewは、数学と一般的な推論ベンチマークで一貫した反復的な改善を実現している。
論文 参考訳(メタデータ) (2025-12-02T07:06:11Z) - Human-in-the-loop Online Rejection Sampling for Robotic Manipulation [55.99788088622936]
Hi-ORSは、オンライン微調整中に負の報酬を得たサンプルをフィルタリングすることで、値推定を安定化する。
Hi-ORSは、わずか1.5時間でコンタクトリッチな操作をマスターするためのpiベースのポリシーを微調整する。
論文 参考訳(メタデータ) (2025-10-30T11:53:08Z) - The Missing Reward: Active Inference in the Era of Experience [1.9761774213809036]
アクティブ推論(AIF)は、自律型AIエージェントを開発する上で重要な基盤を提供する。
AIFは、自由エネルギーを最小化するために、外部の報酬信号を本質的な駆動に置き換えることができる。
この合成は、計算と物理の両方の制約に固執しながら自律的に開発できるAIシステムへの魅力的な道を提供する。
論文 参考訳(メタデータ) (2025-08-07T17:57:12Z) - To Err Is AI! Debugging as an Intervention to Facilitate Appropriate Reliance on AI Systems [11.690126756498223]
最適な人間とAIのコラボレーションのためのビジョンは、人間のAIシステムへの「適切な依存」を必要とする。
実際には、アウト・オブ・ディストリビューションデータにおける機械学習モデルの性能格差は、データセット固有のパフォーマンスフィードバックを信頼できないものにしている。
論文 参考訳(メタデータ) (2024-09-22T09:43:27Z) - DeltaPhi: Physical States Residual Learning for Neural Operators in Data-Limited PDE Solving [54.605760146540234]
DeltaPhiは、PDE解決タスクを、直接入力出力マッピングの学習から、類似の物理的状態間の残差学習に変換する、新しい学習フレームワークである。
大規模な実験は、様々な物理的システムにまたがって一貫した、重要な改善を示す。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - AttNS: Attention-Inspired Numerical Solving For Limited Data Scenarios [51.94807626839365]
限定データによる微分方程式の解法として,注目型数値解法(AttNS)を提案する。
AttNSは、モデル一般化とロバスト性の向上におけるResidual Neural Networks(ResNet)のアテンションモジュールの効果にインスパイアされている。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。