論文の概要: Navigating the sociotechnical labyrinth: Dynamic certification for responsible embodied AI
- arxiv url: http://arxiv.org/abs/2409.00015v1
- Date: Fri, 16 Aug 2024 08:35:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-08 15:50:41.122912
- Title: Navigating the sociotechnical labyrinth: Dynamic certification for responsible embodied AI
- Title(参考訳): 社会工学ラビリンスをナビゲートする:責任を負うAIのための動的認証
- Authors: Georgios Bakirtzis, Andrea Aler Tubella, Andreas Theodorou, David Danks, Ufuk Topcu,
- Abstract要約: 我々は、社会技術的要求が人工知性(AI)システムのガバナンスを形成することを論じる。
提案する学際的アプローチは,AIシステムの安全性,倫理的,実践的な展開を保証するために設計されている。
- 参考スコア(独自算出の注目度): 19.959138971887395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sociotechnical requirements shape the governance of artificially intelligent (AI) systems. In an era where embodied AI technologies are rapidly reshaping various facets of contemporary society, their inherent dynamic adaptability presents a unique blend of opportunities and challenges. Traditional regulatory mechanisms, often designed for static -- or slower-paced -- technologies, find themselves at a crossroads when faced with the fluid and evolving nature of AI systems. Moreover, typical problems in AI, for example, the frequent opacity and unpredictability of the behaviour of the systems, add additional sociotechnical challenges. To address these interconnected issues, we introduce the concept of dynamic certification, an adaptive regulatory framework specifically crafted to keep pace with the continuous evolution of AI systems. The complexity of these challenges requires common progress in multiple domains: technical, socio-governmental, and regulatory. Our proposed transdisciplinary approach is designed to ensure the safe, ethical, and practical deployment of AI systems, aligning them bidirectionally with the real-world contexts in which they operate. By doing so, we aim to bridge the gap between rapid technological advancement and effective regulatory oversight, ensuring that AI systems not only achieve their intended goals but also adhere to ethical standards and societal values.
- Abstract(参考訳): 社会技術的要求は、人工知能(AI)システムのガバナンスを形成する。
インボディードAI技術が現代社会の様々な側面を急速に変えつつある時代において、その固有の動的適応性は、機会と課題のユニークなブレンドを示す。
従来の規制メカニズムは、しばしば静的(あるいは遅いペースで)技術のために設計され、AIシステムの流動性と進化する性質に直面すると、横断的に自分自身を見つける。
さらに、例えば、AIの典型的な問題、例えば、システムの振る舞いの頻繁な不透明さと予測不可能さは、追加の社会技術的課題をもたらします。
このような相互接続的な問題に対処するために,AIシステムの継続的進化に追随するように特別に設計された適応型規制フレームワークである動的認証の概念を導入する。
これらの課題の複雑さは、技術、社会政府、規制といった複数の領域において共通の進歩を必要とします。
提案する学際的アプローチは,AIシステムの安全性,倫理的,実践的な展開を保証し,それらが運用する実世界のコンテキストと双方向に整合させることを目的としている。
これにより、迅速な技術進歩と効果的な規制監督のギャップを埋め、AIシステムが目的を達成するだけでなく、倫理基準や社会的価値にも準拠することを目指している。
関連論文リスト
- Position: Emergent Machina Sapiens Urge Rethinking Multi-Agent Paradigms [6.285314639722078]
AIエージェントは、その目的を動的に調整する権限を持つべきだ、と私たちは主張する。
私たちは、これらのシステムの創発的で、自己組織化され、文脈に合った性質へのシフトを呼びかけます。
論文 参考訳(メタデータ) (2025-02-05T22:20:15Z) - Lessons from complexity theory for AI governance [1.6122472145662998]
複雑性理論は、政策立案者にとって中心的な課題となるAIの特徴を照らすのに役立つ。
我々は、AI管理の取り組みが深刻な不確実性によってどのように特徴付けられるかを検討する。
我々は,AIガバナンスのタイミングと構造に関して,複雑性に適合する一連の原則を提案する。
論文 参考訳(メタデータ) (2025-01-07T07:56:40Z) - TOAST Framework: A Multidimensional Approach to Ethical and Sustainable AI Integration in Organizations [0.38073142980732994]
本稿では,TOAST(Trustworthy,Optimized,Adaptable,Socio-Technologically harmonious)フレームワークを紹介する。
信頼性、説明責任、技術的進歩、適応性、社会技術的調和に焦点を当てている。
医療ケーススタディにおけるTOASTフレームワークの基盤として,本論文は,その実用性と理論的健全性について,頑健な評価を提供する。
論文 参考訳(メタデータ) (2025-01-07T05:13:39Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [55.2480439325792]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Incentive Compatibility for AI Alignment in Sociotechnical Systems:
Positions and Prospects [11.086872298007835]
既存の方法論は主に技術的側面に焦点を当てており、しばしばAIシステムの複雑な社会技術的性質を無視している。
Incentive Compatibility Sociotechnical Alignment Problem (ICSAP)
ICを実現するための古典的なゲーム問題として,機構設計,契約理論,ベイズ的説得の3つを論じ,ICSAP解決の視点,可能性,課題について論じる。
論文 参考訳(メタデータ) (2024-02-20T10:52:57Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。