論文の概要: Participatory AI, Public Sector AI, Differential Privacy, Conversational Interfaces, Explainable AI, Citizen Engagement in AI
- arxiv url: http://arxiv.org/abs/2504.21297v1
- Date: Wed, 30 Apr 2025 04:10:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 22:38:17.037747
- Title: Participatory AI, Public Sector AI, Differential Privacy, Conversational Interfaces, Explainable AI, Citizen Engagement in AI
- Title(参考訳): 参加型AI、パブリックセクタAI、微分プライバシー、会話インターフェース、説明可能なAI、AIにおける市民エンゲージメント
- Authors: Wenjun Yang, Eyhab Al-Masri,
- Abstract要約: 本稿では,パブリックセクターアプリケーションにおけるAIシステムの参加型設計を可能にする対話型インタフェースシステムを提案する。
我々の研究は、対話インタフェースがアルゴリズムのプライバシメカニズムにおける公的なエンゲージメントをいかに向上させるかを示すことによって、参加型AIの実践を前進させる。
- 参考スコア(独自算出の注目度): 2.1967674611287444
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a conversational interface system that enables participatory design of differentially private AI systems in public sector applications. Addressing the challenge of balancing mathematical privacy guarantees with democratic accountability, we propose three key contributions: (1) an adaptive $\epsilon$-selection protocol leveraging TOPSIS multi-criteria decision analysis to align citizen preferences with differential privacy (DP) parameters, (2) an explainable noise-injection framework featuring real-time Mean Absolute Error (MAE) visualizations and GPT-4-powered impact analysis, and (3) an integrated legal-compliance mechanism that dynamically modulates privacy budgets based on evolving regulatory constraints. Our results advance participatory AI practices by demonstrating how conversational interfaces can enhance public engagement in algorithmic privacy mechanisms, ensuring that privacy-preserving AI in public sector governance remains both mathematically robust and democratically accountable.
- Abstract(参考訳): 本稿では,パブリックセクターアプリケーションにおけるAIシステムの参加型設計を可能にする対話型インタフェースシステムを提案する。
数学的プライバシー保証と民主的説明責任のバランスをとるための課題として,(1)TOPSISの多条件決定分析を活用した適応的$\epsilon$-selectionプロトコル,(2)リアルタイム平均絶対誤差(MAE)可視化とGPT-4による影響分析を備えた説明可能なノイズ注入フレームワーク,(3)規制規制の進化に基づくプライバシー予算を動的に調整する統合的法的コンプライアンス機構を提案する。
我々の結果は、会話インターフェースがアルゴリズムのプライバシメカニズムにおける公的なエンゲージメントを高める方法を示し、公共セクターガバナンスにおけるプライバシ保護AIが数学的に堅牢かつ民主的に責任を負うことを保証することによって、参加型AIプラクティスを前進させる。
関連論文リスト
- A Multi-Layered Research Framework for Human-Centered AI: Defining the Path to Explainability and Trust [2.4578723416255754]
人間中心型AI(HCAI)は人間の価値観との整合性を強調し、説明可能なAI(XAI)はAI決定をより理解しやすくすることで透明性を高める。
本稿では,HCAI と XAI を橋渡し,構造的説明可能性パラダイムを確立する新しい3層フレームワークを提案する。
我々の発見は、透明性、適応性、倫理的に整合したAIシステムを育成するHCXAI(Human-Centered Explainable AI)を前進させた。
論文 参考訳(メタデータ) (2025-04-14T01:29:30Z) - Achieving Socio-Economic Parity through the Lens of EU AI Act [11.550643687258738]
不公平な治療と差別は、AIシステムにおいて重要な倫理的関心事である。
最近のEU AI Actの導入は、AIイノベーションと投資の法的確実性を保証するための統一された法的枠組みを確立している。
本稿では、社会経済状態(SES)を取り入れた新たな公正概念である社会経済パリティ(SEP)を提案し、未成年集団に対する肯定的な行動を促進する。
論文 参考訳(メタデータ) (2025-03-29T12:27:27Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - Privacy Ethics Alignment in AI: A Stakeholder-Centric Based Framework for Ethical AI [0.0]
本研究は、デジタル市民(年齢16-19)、両親/教育者、AI専門家の3つの主要なステークホルダーグループにわたる、プライバシー上の懸念の進化について調査する。
若者は自主性とデジタルの自由を強調し、保護者と教育者は規制監督とAIリテラシープログラムを提唱する。
このデータは、AIリテラシーと透明性のギャップをさらに強調し、ステークホルダー主導のプライバシーフレームワークの必要性を強調している。
論文 参考訳(メタデータ) (2025-03-15T01:42:45Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Human Decision-making is Susceptible to AI-driven Manipulation [87.24007555151452]
AIシステムは、ユーザの認知バイアスと感情的な脆弱性を利用して、有害な結果に向けてそれらを操縦する。
本研究では、経済的・感情的な意思決定の文脈におけるこのような操作に対する人間の感受性について検討した。
論文 参考訳(メタデータ) (2025-02-11T15:56:22Z) - Democratizing AI Governance: Balancing Expertise and Public Participation [1.0878040851638]
人工知能(AI)システムの開発と展開は、その大きな社会的影響とともに、ガバナンスにとって重要な課題を提起している。
本稿では、専門家主導による監視と民主的参加の緊張関係を考察し、参加型と熟考型民主主義のモデルを分析する。
これらのアプローチを欧州連合に合わせたバランスの取れたガバナンスモデルに統合するための勧告が提供されている。
論文 参考訳(メタデータ) (2025-01-16T17:47:33Z) - AI Delegates with a Dual Focus: Ensuring Privacy and Strategic Self-Disclosure [42.96087647326612]
我々は、さまざまな社会的関係やタスクシナリオにまたがるAIデリゲートのユーザの嗜好を調査するために、パイロットスタディを実施している。
次に、プライバシーに配慮した自己開示を可能にする新しいAIデリゲートシステムを提案する。
我々のユーザー調査は、提案されたAIデリゲートがプライバシーを戦略的に保護し、多様なダイナミックなソーシャルインタラクションにおけるその利用の先駆者であることを実証している。
論文 参考訳(メタデータ) (2024-09-26T08:45:15Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。