論文の概要: Cognition Envelopes for Bounded AI Reasoning in Autonomous UAS Operations
- arxiv url: http://arxiv.org/abs/2510.26905v1
- Date: Thu, 30 Oct 2025 18:11:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:15.885863
- Title: Cognition Envelopes for Bounded AI Reasoning in Autonomous UAS Operations
- Title(参考訳): 自律型UAS運用における境界AI推論の認知化
- Authors: Pedro Antonio Alarcón Granadeno, Arturo Miguel Bernal Russell, Sofia Nelson, Demetrius Hernandez, Maureen Petterson, Michael Murphy, Walter J. Scheirer, Jane Cleland-Huang,
- Abstract要約: サイバー物理システムは、認識、推論、計画の強化を通じて自律性を高めるために基礎モデル(LLM)にますます依存している。
これらのモデルはまた、幻覚、過度な一般化、コンテキストのミスアライメントといった新しいタイプのエラーを導入し、不正確で欠陥のある決定をもたらす。
これを解決するために、メタ認知と従来の安全封筒の使用を補完しながら、AI生成決定を制約する推論境界を確立するために設計されたCognition Envelopesの概念を導入する。
- 参考スコア(独自算出の注目度): 23.173667789403424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cyber-physical systems increasingly rely on Foundational Models such as Large Language Models (LLMs) and Vision-Language Models (VLMs) to increase autonomy through enhanced perception, inference, and planning. However, these models also introduce new types of errors, such as hallucinations, overgeneralizations, and context misalignments, resulting in incorrect and flawed decisions. To address this, we introduce the concept of Cognition Envelopes, designed to establish reasoning boundaries that constrain AI-generated decisions while complementing the use of meta-cognition and traditional safety envelopes. As with safety envelopes, Cognition Envelopes require practical guidelines and systematic processes for their definition, validation, and assurance.
- Abstract(参考訳): サイバー物理システムは、認識、推論、計画の強化を通じて自律性を高めるために、Large Language Models (LLM)やVision-Language Models (VLM)のような基礎モデルにますます依存している。
しかし、これらのモデルは、幻覚、過一般化、コンテキストのミスアライメントといった新しいタイプのエラーも導入し、不正確で欠陥のある決定をもたらす。
これを解決するために、メタ認知と従来の安全封筒の使用を補完しながら、AI生成決定を制約する推論境界を確立するために設計されたCognition Envelopesの概念を導入する。
安全封筒と同様に、認知エンベロープは、その定義、検証、保証のために実践的なガイドラインと体系的なプロセスを必要とする。
関連論文リスト
- Discrete Diffusion for Reflective Vision-Language-Action Models in Autonomous Driving [55.13109926181247]
離散拡散による安全な軌道生成のためのリフレクション機構を統合した学習ベースのフレームワークであるReflectDriveを紹介する。
我々のアプローチの中心は、勾配のない反復的な自己補正を行う、安全を意識した反射機構である。
本手法は目標条件付き軌道生成から始まり,マルチモーダル運転動作をモデル化する。
論文 参考訳(メタデータ) (2025-09-24T13:35:15Z) - Erasing Concepts, Steering Generations: A Comprehensive Survey of Concept Suppression [10.950528923845955]
機密性、著作権、有害な画像の無制御再生は、重大な倫理的、法的、安全上の課題を引き起こす。
概念消去パラダイムは有望な方向として現れており、生成モデルから特定の意味概念を選択的に除去することができる。
この調査は、研究者がより安全で倫理的に整合した生成モデルへと導くことを目的としている。
論文 参考訳(メタデータ) (2025-05-26T01:24:34Z) - Co-CoT: A Prompt-Based Framework for Collaborative Chain-of-Thought Reasoning [0.0]
我々は,人間中心の説明可能性の向上とAI利用の責任を負うInteractive Chain-of-Thought(CoT)フレームワークを提案する。
このフレームワークは推論を、ユーザが検査、修正、再実行できる明確に定義されたブロックに分解する。
倫理的透明性は、明確なメタデータ開示、組み込みバイアスチェックポイント機能、プライバシ保護による保護を通じて保証される。
論文 参考訳(メタデータ) (2025-04-23T20:48:09Z) - Deliberative Alignment: Reasoning Enables Safer Language Models [64.60765108418062]
モデルセーフティ仕様を教える新しいパラダイムであるDeliberative Alignmentを紹介します。
このアプローチを使ってOpenAIのoシリーズモデルを整列させ、人書きのチェーンや回答を必要とせず、OpenAIの安全ポリシーに極めて正確な順守を実現しました。
論文 参考訳(メタデータ) (2024-12-20T21:00:11Z) - Interpretable Concept-Based Memory Reasoning [12.562474638728194]
コンセプトベースのメモリリゾナー(CMR)は、人間に理解でき、検証可能なタスク予測プロセスを提供するために設計された新しいCBMである。
CMRは、最先端のCBMに対する精度-解釈可能性のトレードオフを向上し、基礎的な真実と整合した論理規則を発見し、規則の介入を可能にし、事前デプロイ検証を可能にする。
論文 参考訳(メタデータ) (2024-07-22T10:32:48Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Understanding and Enhancing Robustness of Concept-based Models [41.20004311158688]
対向摂動に対する概念ベースモデルの堅牢性について検討する。
本稿では、まず、概念ベースモデルのセキュリティ脆弱性を評価するために、さまざまな悪意ある攻撃を提案し、分析する。
そこで我々は,これらのシステムのロバスト性を高めるための,汎用的対人訓練に基づく防御機構を提案する。
論文 参考訳(メタデータ) (2022-11-29T10:43:51Z) - Does Pre-training Induce Systematic Inference? How Masked Language
Models Acquire Commonsense Knowledge [91.15301779076187]
プレトレーニング中のBERTモデルのミニバッチに言語知識を導入し、モデルがサポート対象の推論にどの程度うまく一般化するかを評価する。
一般化は事前学習の過程では改善せず, 帰納的, 体系的推論ではなく, 表面的, 共起的パターンからコモンセンス知識が獲得されることが示唆された。
論文 参考訳(メタデータ) (2021-12-16T03:13:04Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。