論文の概要: Beyond risk: A proto-framework for assessing the societal impact of AI systems
- arxiv url: http://arxiv.org/abs/2508.03666v1
- Date: Tue, 05 Aug 2025 17:25:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:56.099364
- Title: Beyond risk: A proto-framework for assessing the societal impact of AI systems
- Title(参考訳): リスクを超えて:AIシステムの社会的影響を評価するためのプロトタイプ
- Authors: Willem Fourie,
- Abstract要約: 本稿では,自由の概念を運用することで,AIシステムの社会的影響を評価するためのプロトタイプフレームワークを提案する。
カント哲学と関連する同時代の解釈を参考にして、自由は責任の概念と相反するものとして発展する。
自由の2つの次元は、能力としての自由と機会としての自由という2つの詳細で展開されている。
このプロトフレームワークは、現在のリスクベースのアプローチを補完することを目的としており、AI規制における自由の概念を運用するための第一歩を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the discourse on AI regulation, 'responsible AI' is the dominant paradigm, with the focus on mitigating the risks related to AI systems. While this focus is important and necessary, it has limited use for a systematic consideration of AI's societal impact. This paper proposes a proto-framework for assessing the societal impact of AI systems by operationalising the concept of freedom. This proto-framework is intended as a step towards a fully operationalised framework to be used in policymaking contexts. By drawing on Kantian philosophy and related contemporary interpretations, freedom is developed as the counterpart to the concept of responsibility. Two dimensions of freedom are developed in further detail: freedom as capability and freedom as opportunity. These two dimensions of freedom are then applied in a proto-framework that systematically considers AI's impact on society using the Sustainable Development Goals. This proto-framework aims to complement current risk-based approaches and thereby offers a first step towards operationalising the concept of freedom in AI regulation.
- Abstract(参考訳): AI規制に関する談話では、"責任AI"が支配的なパラダイムであり、AIシステムに関するリスク軽減に重点を置いている。
この焦点は重要かつ必要であるが、AIの社会的影響を体系的に考慮するためには限られている。
本稿では,自由の概念を運用することで,AIシステムの社会的影響を評価するためのプロトタイプフレームワークを提案する。
このプロトフレームワークは、ポリシー作成のコンテキストで使用される、完全に運用されたフレームワークへのステップとして意図されている。
カント哲学と関連する同時代の解釈を参考にして、自由は責任の概念と相反するものとして発展する。
自由の2つの次元は、能力としての自由と機会としての自由という2つの詳細で展開されている。
これら2つの自由の次元は、持続可能な開発目標を使用してAIが社会に与える影響を体系的に考慮する原枠組みに適用される。
このプロトフレームワークは、現在のリスクベースのアプローチを補完することを目的としており、AI規制における自由の概念を運用するための第一歩を提供する。
関連論文リスト
- Development of management systems using artificial intelligence systems and machine learning methods for boards of directors (preprint, unofficial translation) [0.0]
この研究は、AIが意思決定支援ツールから自律的な意思決定者へと移行する、企業管理のパラダイムシフトに対処する。
主要な問題は、AI技術の開発が適切な法的および倫理的ガイドラインの作成をはるかに上回っていることである。
本研究は、企業経営における自律型AIシステムの開発と実装のための「参照モデル」を提案する。
論文 参考訳(メタデータ) (2025-08-05T04:01:22Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Responsible Artificial Intelligence Systems: A Roadmap to Society's Trust through Trustworthy AI, Auditability, Accountability, and Governance [37.10526074040908]
本稿では, 包括的観点から, 責任あるAIシステムの概念を考察する。
論文の最終目標は、責任あるAIシステムの設計におけるロードマップの提案である。
論文 参考訳(メタデータ) (2025-02-04T14:47:30Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [55.2480439325792]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Delegating Responsibilities to Intelligent Autonomous Systems: Challenges and Benefits [1.7205106391379026]
AIシステムは自律性と適応性で機能するので、技術的社会システムにおける伝統的な道徳的責任の境界が課題となっている。
本稿では,知的自律エージェントへの責任委譲に関する議論の進展と,そのような実践の倫理的意味について考察する。
論文 参考訳(メタデータ) (2024-11-06T18:40:38Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。