論文の概要: Position: Human-Centric AI Requires a Minimum Viable Level of Human Understanding
- arxiv url: http://arxiv.org/abs/2602.00854v1
- Date: Sat, 31 Jan 2026 18:37:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.435894
- Title: Position: Human-Centric AI Requires a Minimum Viable Level of Human Understanding
- Title(参考訳): 人間中心のAIは人間の理解の最小レベルを必要とする
- Authors: Fangzhou Lin, Qianwen Ge, Lingyu Xu, Peiran Li, Xiangbo Gao, Shuo Xing, Kazunori Yamada, Ziming Zhang, Haichong Zhang, Zhengzhong Tu,
- Abstract要約: 本稿では、透明性、ユーザコントロール、リテラシー、ガバナンスに対する一般的なアプローチは、人間が持続的なAIデリゲートの下で監視し続けなければならないという基本的な理解を定義していない、と論じる。
これを形式化するために、認知統合閾値(CIT)を、AI支援下での監視、自律性、説明責任な参加を維持するために必要な最小限の理解として定義する。
- 参考スコア(独自算出の注目度): 26.14684888478043
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: AI systems increasingly produce fluent, correct, end-to-end outcomes. Over time, this erodes users' ability to explain, verify, or intervene. We define this divergence as the Capability-Comprehension Gap: a decoupling where assisted performance improves while users' internal models deteriorate. This paper argues that prevailing approaches to transparency, user control, literacy, and governance do not define the foundational understanding humans must retain for oversight under sustained AI delegation. To formalize this, we define the Cognitive Integrity Threshold (CIT) as the minimum comprehension required to preserve oversight, autonomy, and accountable participation under AI assistance. CIT does not require full reasoning reconstruction, nor does it constrain automation. It identifies the threshold beyond which oversight becomes procedural and contestability fails. We operatinalize CIT through three functional dimensions: (i) verification capacity, (ii) comprehension-preserving interaction, and (iii) institutional scaffolds for governance. This motivates a design and governance agenda that aligns human-AI interaction with cognitive sustainability in responsibility-critical settings.
- Abstract(参考訳): AIシステムはますます、流動的で、正しい、エンドツーエンドの結果を生み出している。
時間とともに、これはユーザーが説明、検証、介入する能力を損なう。
ユーザの内部モデルを劣化させながら、パフォーマンスが向上するデカップリングである。
本稿では、透明性、ユーザコントロール、リテラシー、ガバナンスに対する一般的なアプローチは、人間が持続的なAI委任の下で監視し続けなければならないという基本的な理解を定義していない、と論じる。
これを形式化するために、認知統合閾値(CIT)を、AI支援下での監視、自律性、説明責任な参加を維持するために必要な最小限の理解として定義する。
CITは完全な推論の再構築を必要としないし、自動化も制約しない。
それは、監視が手続き的になり、競争が失敗する余地を識別する。
我々はCITを3つの機能次元で操作する。
(i)検証能力
(二)理解-保存相互作用、及び
三 行政機関の足場
これは、人間とAIの相互作用を、責任クリティカルな環境での認知的持続可能性と整合させる設計とガバナンスのアジェンダを動機付けます。
関連論文リスト
- Beyond Procedural Compliance: Human Oversight as a Dimension of Well-being Efficacy in AI Governance [9.228674182975015]
EU AI法を含む主要なAI倫理ガイドラインと法は、効果的な人間の監督を要求するが、それを明確で発展可能な能力として定義していない。
本稿では,新たなウェルビーイング・エフェシシー・フレームワーク内に,人間の監視とウェルビーイング能力を紹介する。
人間の監視と幸福な能力の枠組みは、高いレベルの規制目標から人事機関の継続的な栽培に至る実践的な道筋を提供する。
論文 参考訳(メタデータ) (2025-12-15T16:20:59Z) - From Human Intention to Action Prediction: A Comprehensive Benchmark for Intention-driven End-to-End Autonomous Driving [67.23302649816466]
現在の自律運転システムは、単純な操縦命令に従うように、インテリジェンスレベルで動作する。
Intention-Driveは、高レベルの人間の意図を安全かつ正確な運転行動に変換する能力を評価するために設計された最初の総合的なベンチマークである。
論文 参考訳(メタデータ) (2025-12-13T11:59:51Z) - AI Autonomy Coefficient ($α$): Defining Boundaries for Responsible AI Systems [0.15293427903448018]
現代のAIシステムの統合性は、Human-in-the-Loopモデルの誤用によって損なわれる。
機能独立の定量的レベルを示すためにAIシステムを必要とするAI-First, Human-Empowered(AFHE)パラダイムを導入する。
AFHEは、現代のAIシステムにおいて、検証可能な自律性、透明性、持続的な保守性を保証するためのメトリック駆動型アプローチを提供する、と結論付けています。
論文 参考訳(メタデータ) (2025-12-12T05:41:20Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - A Multi-Layered Research Framework for Human-Centered AI: Defining the Path to Explainability and Trust [2.4578723416255754]
人間中心型AI(HCAI)は人間の価値観との整合性を強調し、説明可能なAI(XAI)はAI決定をより理解しやすくすることで透明性を高める。
本稿では,HCAI と XAI を橋渡し,構造的説明可能性パラダイムを確立する新しい3層フレームワークを提案する。
我々の発見は、透明性、適応性、倫理的に整合したAIシステムを育成するHCXAI(Human-Centered Explainable AI)を前進させた。
論文 参考訳(メタデータ) (2025-04-14T01:29:30Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。