論文の概要: The Irrational Machine: Neurosis and the Limits of Algorithmic Safety
- arxiv url: http://arxiv.org/abs/2510.10823v1
- Date: Sun, 12 Oct 2025 22:22:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.120944
- Title: The Irrational Machine: Neurosis and the Limits of Algorithmic Safety
- Title(参考訳): 不合理機械:神経症とアルゴリズム安全の限界
- Authors: Daniel Howard,
- Abstract要約: 具体的AIにおいて神経症を特徴付けるための枠組みを提案する。
我々は,フリップフロップ,プランチャーン,パーセバーションループ,麻痺,過動などの繰り返しモーダルをカタログ化する。
本稿では, 遺伝子プログラミングに基づく破壊試験を提案し, 血圧とニューロシススコアを最大化するために世界と摂動を進化させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a framework for characterizing neurosis in embodied AI: behaviors that are internally coherent yet misaligned with reality, arising from interactions among planning, uncertainty handling, and aversive memory. In a grid navigation stack we catalogue recurrent modalities including flip-flop, plan churn, perseveration loops, paralysis and hypervigilance, futile search, belief incoherence, tie break thrashing, corridor thrashing, optimality compulsion, metric mismatch, policy oscillation, and limited-visibility variants. For each we give lightweight online detectors and reusable escape policies (short commitments, a margin to switch, smoothing, principled arbitration). We then show that durable phobic avoidance can persist even under full visibility when learned aversive costs dominate local choice, producing long detours despite globally safe routes. Using First/Second/Third Law as engineering shorthand for safety latency, command compliance, and resource efficiency, we argue that local fixes are insufficient; global failures can remain. To surface them, we propose genetic-programming based destructive testing that evolves worlds and perturbations to maximize law pressure and neurosis scores, yielding adversarial curricula and counterfactual traces that expose where architectural revision, not merely symptom-level patches, is required.
- Abstract(参考訳): 具体的AIにおけるニューロシスを特徴付けるための枠組みとして,計画間の相互作用,不確実性処理,および不可逆記憶から生じる,内面的に一貫性がありながら現実と不一致な行動について述べる。
グリッドナビゲーションスタックでは、フリップフロップ、プランチャーン、パーセバーションループ、麻痺と過度な移動、無駄な探索、不便な探索、コヒーレンス、タイブレークスラッシング、廊下スラッシング、最適性強制、計量ミスマッチ、ポリシー振動、限定可視変種など、反復的なモダリティをカタログ化しています。
それぞれに軽量なオンライン検知器と再利用可能なエスケープポリシー(短いコミットメント、切り替えのためのマージン、スムーズな、原則的な仲裁)を提供します。
そして,学習費が地域選択を支配している場合,持続可能な疎水性回避は完全な視認の下でも持続可能であることを示し,世界規模で安全なルートをたどると長い遠回りが生じることを示した。
First/Second/Third Lawを安全レイテンシ、コマンドコンプライアンス、リソース効率のショートハンドとして使用すると、局所的な修正は不十分である、と我々は主張する。
そこで本研究では,世界と摂動を進化させ,法圧と神経症スコアを最大化する遺伝子プログラミングに基づく破壊検査を提案する。
関連論文リスト
- Core Safety Values for Provably Corrigible Agents [2.6451153531057985]
我々は,複数段階の部分的に観察された環境において,検証可能な保証を付与し,適応性のための最初の実装可能なフレームワークを紹介した。
私たちのフレームワークは、単一の報酬を5つの*構造的に分離された*ユーティリティヘッドに置き換えます。
敵がエージェントを修正できるオープンエンド設定では、任意のポストハックエージェントが調整性に反するかどうかを判断することは不可能である。
論文 参考訳(メタデータ) (2025-07-28T16:19:25Z) - An Optimistic Algorithm for online CMDPS with Anytime Adversarial Constraints [7.275101606364466]
オンライン安全強化学習(RL)は、自律運転、ロボティクス、サイバーセキュリティなど、動的環境において重要な役割を果たす。
マルコフ決定プロセス(CMDP)をモデルとした安全制約を満たしつつ報酬を最大化する最適政策を学習することを目的とする。
既存の手法は制約の下でサブリニアな後悔を実現するが、制約が未知、時間変化、潜在的に敵意的に設計された場合、しばしば敵の設定で失敗する。
最適ミラーDescent Primal-Dual (OMDPD) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-05-28T00:16:34Z) - RISE: Robust Imitation through Stochastic Encoding [0.764671395172401]
本稿では,環境パラメータの誤った測定をポリシー学習に明示的に対応させる,新しい模倣学習フレームワークを提案する。
我々のフレームワークは、障害状態、向き、速度などのパラメータを潜在空間にエンコードし、テスト時間を改善する。
我々は,2つのロボットプラットフォームに対するアプローチを検証するとともに,目標達成性能をベースライン法と比較し,安全性の向上を図っている。
論文 参考訳(メタデータ) (2025-03-15T19:52:16Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - Uniformly Safe RL with Objective Suppression for Multi-Constraint Safety-Critical Applications [73.58451824894568]
広く採用されているCMDPモデルは予測のリスクを制約しており、長い尾の州で危険な行動を起こす余地がある。
安全クリティカルな領域では、そのような行動は破滅的な結果をもたらす可能性がある。
本稿では,目標を最大化するタスク報酬を適応的に抑制する新しい手法であるObjective Suppressionを提案する。
論文 参考訳(メタデータ) (2024-02-23T23:22:06Z) - Resilient Legged Local Navigation: Learning to Traverse with Compromised
Perception End-to-End [16.748853375988013]
我々は認識障害を目に見えない障害と落とし穴としてモデル化する。
我々は、強化学習に基づくローカルナビゲーションポリシーを訓練し、足のついたロボットを案内する。
シミュレーションおよび実四足歩行ロボットANYmalをリアルタイムに動作させることにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-10-05T15:01:31Z) - A Multiplicative Value Function for Safe and Efficient Reinforcement
Learning [131.96501469927733]
本稿では,安全評論家と報酬評論家からなる新しい乗法値関数を持つモデルフリーRLアルゴリズムを提案する。
安全評論家は、制約違反の確率を予測し、制限のないリターンのみを見積もる報酬批評家を割引する。
安全制約を付加した古典的RLベンチマークや、画像を用いたロボットナビゲーションタスク、生のライダースキャンを観察する4つの環境において、本手法の評価を行った。
論文 参考訳(メタデータ) (2023-03-07T18:29:15Z) - FIRE: A Failure-Adaptive Reinforcement Learning Framework for Edge Computing Migrations [52.85536740465277]
FIREは、エッジコンピューティングのディジタルツイン環境でRLポリシーをトレーニングすることで、まれなイベントに適応するフレームワークである。
ImREは重要なサンプリングに基づくQ-ラーニングアルゴリズムであり、希少事象をその値関数への影響に比例してサンプリングする。
FIREは故障時にバニラRLやグリーディベースラインと比較してコストを削減できることを示す。
論文 参考訳(メタデータ) (2022-09-28T19:49:39Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Reset-Free Lifelong Learning with Skill-Space Planning [105.00539596788127]
非分離寿命RLのためのアルゴリズムフレームワークであるLifelong Skill Planning (LiSP)を提案する。
LiSPは、本質的な報酬を用いて教師なしの方法でスキルを学び、学習力学モデルを用いて学習スキルを計画する。
我々は,lispが長期計画に成功し,非定常環境や非定型環境においても壊滅的な失敗を回避できるエージェントを学習できることを実証的に示す。
論文 参考訳(メタデータ) (2020-12-07T09:33:02Z) - Online Mapping and Motion Planning under Uncertainty for Safe Navigation
in Unknown Environments [3.2296078260106174]
本論文は,確率論的安全保証者によるオンラインで実現可能な動作のマッピングと計画のための不確実性に基づくフレームワークを提案する。
提案手法は, 環境の不確実性を意識した環境表現を構築するために周囲をマッピングし, (i) 信念空間の多層サンプリングベースプランナーを通して, キノダイナミックに実現可能で確率論的に安全な目標に反復的に(re)計画を行うことにより, 動き, 確率論的安全性, オンライン計算制約を取り扱う。
論文 参考訳(メタデータ) (2020-04-26T08:53:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。