論文の概要: Navigating the sociotechnical labyrinth: Dynamic certification for responsible embodied AI
- arxiv url: http://arxiv.org/abs/2409.00015v1
- Date: Fri, 16 Aug 2024 08:35:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-08 15:50:41.122912
- Title: Navigating the sociotechnical labyrinth: Dynamic certification for responsible embodied AI
- Title(参考訳): 社会工学ラビリンスをナビゲートする:責任を負うAIのための動的認証
- Authors: Georgios Bakirtzis, Andrea Aler Tubella, Andreas Theodorou, David Danks, Ufuk Topcu,
- Abstract要約: 我々は、社会技術的要求が人工知性(AI)システムのガバナンスを形成することを論じる。
提案する学際的アプローチは,AIシステムの安全性,倫理的,実践的な展開を保証するために設計されている。
- 参考スコア(独自算出の注目度): 19.959138971887395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sociotechnical requirements shape the governance of artificially intelligent (AI) systems. In an era where embodied AI technologies are rapidly reshaping various facets of contemporary society, their inherent dynamic adaptability presents a unique blend of opportunities and challenges. Traditional regulatory mechanisms, often designed for static -- or slower-paced -- technologies, find themselves at a crossroads when faced with the fluid and evolving nature of AI systems. Moreover, typical problems in AI, for example, the frequent opacity and unpredictability of the behaviour of the systems, add additional sociotechnical challenges. To address these interconnected issues, we introduce the concept of dynamic certification, an adaptive regulatory framework specifically crafted to keep pace with the continuous evolution of AI systems. The complexity of these challenges requires common progress in multiple domains: technical, socio-governmental, and regulatory. Our proposed transdisciplinary approach is designed to ensure the safe, ethical, and practical deployment of AI systems, aligning them bidirectionally with the real-world contexts in which they operate. By doing so, we aim to bridge the gap between rapid technological advancement and effective regulatory oversight, ensuring that AI systems not only achieve their intended goals but also adhere to ethical standards and societal values.
- Abstract(参考訳): 社会技術的要求は、人工知能(AI)システムのガバナンスを形成する。
インボディードAI技術が現代社会の様々な側面を急速に変えつつある時代において、その固有の動的適応性は、機会と課題のユニークなブレンドを示す。
従来の規制メカニズムは、しばしば静的(あるいは遅いペースで)技術のために設計され、AIシステムの流動性と進化する性質に直面すると、横断的に自分自身を見つける。
さらに、例えば、AIの典型的な問題、例えば、システムの振る舞いの頻繁な不透明さと予測不可能さは、追加の社会技術的課題をもたらします。
このような相互接続的な問題に対処するために,AIシステムの継続的進化に追随するように特別に設計された適応型規制フレームワークである動的認証の概念を導入する。
これらの課題の複雑さは、技術、社会政府、規制といった複数の領域において共通の進歩を必要とします。
提案する学際的アプローチは,AIシステムの安全性,倫理的,実践的な展開を保証し,それらが運用する実世界のコンテキストと双方向に整合させることを目的としている。
これにより、迅速な技術進歩と効果的な規制監督のギャップを埋め、AIシステムが目的を達成するだけでなく、倫理基準や社会的価値にも準拠することを目指している。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Incentive Compatibility for AI Alignment in Sociotechnical Systems:
Positions and Prospects [11.086872298007835]
既存の方法論は主に技術的側面に焦点を当てており、しばしばAIシステムの複雑な社会技術的性質を無視している。
Incentive Compatibility Sociotechnical Alignment Problem (ICSAP)
ICを実現するための古典的なゲーム問題として,機構設計,契約理論,ベイズ的説得の3つを論じ,ICSAP解決の視点,可能性,課題について論じる。
論文 参考訳(メタデータ) (2024-02-20T10:52:57Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Artificial intelligence in government: Concepts, standards, and a
unified framework [0.0]
人工知能(AI)の最近の進歩は、政府の変革を約束している。
新しいAIシステムは、社会の規範的な期待に沿うように振る舞うことが重要である。
論文 参考訳(メタデータ) (2022-10-31T10:57:20Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - Systems Challenges for Trustworthy Embodied Systems [0.0]
エンボディシステムと呼ばれる、ますます自律的かつ自律的な新世代のシステムの開発が進んでいる。
実施されたシステムの振る舞いを有益な方法で調整し、人間中心の社会的価値との整合性を確保し、安全で信頼性の高い人間と機械の相互作用を設計することが不可欠である。
我々は、急進的なシステム工学が組み込みシステムからエンボディドシステムへの気候に到達し、状況を認識し、意図的に駆動され、爆発的に進化し、ほとんど予測不可能で、ますます自律的なエンボディドシステムのダイナミックフェデレーションの信頼性を保証していると論じている。
論文 参考訳(メタデータ) (2022-01-10T15:52:17Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。