論文の概要: Towards Meaningful Transparency in Civic AI Systems
- arxiv url: http://arxiv.org/abs/2510.07889v1
- Date: Thu, 09 Oct 2025 07:43:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.935683
- Title: Towards Meaningful Transparency in Civic AI Systems
- Title(参考訳): 市民AIシステムにおける意味のある透明性を目指して
- Authors: Dave Murray-Rust, Kars Alfrink, Cristina Zaga,
- Abstract要約: 我々は、AIの透明性を人間中心の視点で捉える既存のアプローチと、社会技術的システムビューを組み合わせて、市民AIシステムにとって意味のある透明性の概念を開発するためのアプローチを構築します。
- 参考スコア(独自算出の注目度): 5.088706070254431
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence has become a part of the provision of governmental services, from making decisions about benefits to issuing fines for parking violations. However, AI systems rarely live up to the promise of neutral optimisation, creating biased or incorrect outputs and reducing the agency of both citizens and civic workers to shape the way decisions are made. Transparency is a principle that can both help subjects understand decisions made about them and shape the processes behind those decisions. However, transparency as practiced around AI systems tends to focus on the production of technical objects that represent algorithmic aspects of decision making. These are often difficult for publics to understand, do not connect to potential for action, and do not give insight into the wider socio-material context of decision making. In this paper, we build on existing approaches that take a human-centric view on AI transparency, combined with a socio-technical systems view, to develop the concept of meaningful transparency for civic AI systems: transparencies that allow publics to engage with AI systems that affect their lives, connecting understanding with potential for action.
- Abstract(参考訳): 人工知能は、駐車違反に対する罰金発行の利益に関する決定から、政府のサービス提供の一部になっている。
しかし、AIシステムは中立的な最適化を約束し、バイアスや不正なアウトプットを生成し、市民と市民の双方のエージェントを減らして意思決定の仕方を変えることは滅多にない。
透明性は、被験者が意思決定を理解し、意思決定の背後にあるプロセスを形成するのに役立つ原則です。
しかし、AIシステムに関する透明性は、意思決定のアルゴリズム的な側面を表す技術オブジェクトの生成に焦点を当てる傾向がある。
これらのことは、大衆が理解しにくく、行動の可能性と結びついておらず、より広い社会的・物質的な意思決定の文脈についての洞察を与えないことが多い。
本稿では,AIの透明性を人間中心の視点で捉えた既存のアプローチと,社会技術的システムの観点から,市民AIシステムに対する意味のある透明性の概念を開発する。
関連論文リスト
- Towards Transparent Ethical AI: A Roadmap for Trustworthy Robotic Systems [0.0]
本稿では、AI意思決定プロセスにおける透明性が、信頼性と倫理的に整合したロボットシステムの開発に不可欠である、と論じる。
透明性の実現における技術的,倫理的,実践的な課題について概説し,それを強化するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-08-07T20:49:16Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Enhancing transparency in AI-powered customer engagement [0.0]
本稿では、AIを活用した顧客エンゲージメントに対する消費者信頼を構築する上での重要な課題について論じる。
AIがビジネスオペレーションに革命をもたらす可能性にもかかわらず、誤った情報やAI意思決定プロセスの不透明性に対する広範な懸念は、信頼を損なう。
透明性と説明可能性に対する全体論的アプローチを採用することで、企業はAIテクノロジへの信頼を育むことができる。
論文 参考訳(メタデータ) (2024-09-13T20:26:11Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Path To Gain Functional Transparency In Artificial Intelligence With Meaningful Explainability [0.0]
AIシステムがますます高度化するにつれて、透明性と説明可能性の確保が重要になる。
透明なシステムにおけるユーザ中心のコンプライアンス・バイ・デザイン透過性の設計を提案する。
AIシステムにおける透明性に関連する課題を包括的に理解することで、説明責任、信頼性、社会的価値に整合したAIシステムの開発を促進することを目指している。
論文 参考訳(メタデータ) (2023-10-13T04:25:30Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Think About the Stakeholders First! Towards an Algorithmic Transparency
Playbook for Regulatory Compliance [14.043062659347427]
世界中の政府によって、公共および民間セクターに導入された人工知能(AI)システムを規制するための法律が提案され、可決されている。
これらの規則の多くは、AIシステムの透明性と、関連する市民意識の問題に対処している。
我々は,透明で規制に適合したシステムを設計する上で,技術者を支援する新たな利害関係者優先のアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-10T09:39:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。