論文の概要: Participatory Approaches in AI Development and Governance: Case Studies
- arxiv url: http://arxiv.org/abs/2407.13103v1
- Date: Mon, 3 Jun 2024 10:10:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 08:07:30.767993
- Title: Participatory Approaches in AI Development and Governance: Case Studies
- Title(参考訳): AI開発とガバナンスへの参加的アプローチ:ケーススタディ
- Authors: Ambreesh Parthasarathy, Aditya Phalnikar, Gokul S Krishnan, Ameen Jauhar, Balaraman Ravindran,
- Abstract要約: 本稿では、AI開発と展開への参加的アプローチの価値に関する2部シリーズの第2部を構成する。
最初の論文は、この2つの演習で参加的手法を展開するための、原則と実践的な正当化を考案した。
本稿では、これらの予備的な結論を、法と秩序の覚醒における顔認識技術の使用と、医療分野における大規模言語モデルの使用の2つの分野で検証する。
- 参考スコア(独自算出の注目度): 9.824305892501686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper forms the second of a two-part series on the value of a participatory approach to AI development and deployment. The first paper had crafted a principled, as well as pragmatic, justification for deploying participatory methods in these two exercises (that is, development and deployment of AI). The pragmatic justification is that it improves the quality of the overall algorithm by providing more granular and minute information. The more principled justification is that it offers a voice to those who are going to be affected by the deployment of the algorithm, and through engagement attempts to build trust and buy-in for an AI system. By a participatory approach, we mean including various stakeholders (defined a certain way) in the actual decision making process through the life cycle of an AI system. Despite the justifications offered above, actual implementation depends crucially on how stakeholders in the entire process are identified, what information is elicited from them, and how it is incorporated. This paper will test these preliminary conclusions in two sectors, the use of facial recognition technology in the upkeep of law and order and the use of large language models in the healthcare sector. These sectors have been chosen for two primary reasons. Since Facial Recognition Technologies are a branch of AI solutions that are well-researched and the impact of which is well documented, it provides an established space to illustrate the various aspects of adapting PAI to an existing domain, especially one that has been quite contentious in the recent past. LLMs in healthcare provide a canvas for a relatively less explored space, and helps us illustrate how one could possibly envision enshrining the principles of PAI for a relatively new technology, in a space where innovation must always align with patient welfare.
- Abstract(参考訳): 本稿では、AI開発と展開への参加的アプローチの価値に関する2部シリーズの第2部を構成する。
最初の論文は、この2つのエクササイズ(つまり、AIの開発と展開)に参加メソッドをデプロイするための、原則と実践的な正当化を考案した。
現実的な正当化は、よりきめ細かい情報を提供することで、全体的なアルゴリズムの品質を向上させることである。
より原則化された正当化は、アルゴリズムの展開に影響を受けそうな人たちへの声を提供し、AIシステムの信頼と購入を築こうとするエンゲージメントを通じて実現している。
参加型アプローチでは、AIシステムのライフサイクルを通じて、実際の意思決定プロセスにさまざまな利害関係者(特定の方法を定義する)を含めます。
上記の正当化にもかかわらず、実際の実装は、プロセス全体の利害関係者の特定方法、どのような情報が提供され、どのように組み込まれているかに大きく依存する。
本稿では、これらの予備的な結論を、法と秩序の覚醒における顔認識技術の使用と、医療分野における大規模言語モデルの使用の2つの分野で検証する。
これらの部門は2つの主要な理由から選ばれた。
Facial Recognition Technologiesは、よく研究され、その影響が十分に文書化されているAIソリューションの分野であるため、PAIを既存のドメイン、特に最近かなり批判的な領域に適応するさまざまな側面を説明するための確立されたスペースを提供する。
医療分野におけるLLMは、比較的研究の少ない分野のキャンバスを提供し、イノベーションが常に患者の福祉と整合しなくてはならない分野において、比較的新しい技術のためにPAIの原則を具現化する方法を、どのように想像できるかを説明するのに役立つ。
関連論文リスト
- Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Participatory Approaches in AI Development and Governance: A Principled Approach [9.271573427680087]
本稿は、AIにおける参加型ガバナンスに関する2部構成のシリーズの第1部を構成する。
より責任があり、安全で、人間中心のAIシステムを構築し、使用するために、参加型アプローチが有益である、という前提を推し進めている。
論文 参考訳(メタデータ) (2024-06-03T09:49:42Z) - Crossing the principle-practice gap in AI ethics with ethical problem-solving [0.0]
AI開発の技術的側面から倫理的言説を分離する原則-実践的ギャップを埋めるには、依然として未解決の問題である。
EPSは、責任、人間中心、価値指向のAI開発を促進する方法論である。
EPSを青写真として利用し、Ethics as a Service Platformの実装を提案します。
論文 参考訳(メタデータ) (2024-04-16T14:35:13Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Think About the Stakeholders First! Towards an Algorithmic Transparency
Playbook for Regulatory Compliance [14.043062659347427]
世界中の政府によって、公共および民間セクターに導入された人工知能(AI)システムを規制するための法律が提案され、可決されている。
これらの規則の多くは、AIシステムの透明性と、関連する市民意識の問題に対処している。
我々は,透明で規制に適合したシステムを設計する上で,技術者を支援する新たな利害関係者優先のアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-10T09:39:00Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - A Survey on AI Assurance [0.0]
AIアルゴリズムを運用決定プロセスに採用する上で重要な概念は、保証の概念である。
この写本は、1985年から2021年の間、AIの保証に関連する研究の体系的なレビューを提供する。
新しいAI保証定義を採用し、提示し、アシュアランス手法を対比し、集計する。
論文 参考訳(メタデータ) (2021-11-15T02:45:34Z) - A Methodology for Creating AI FactSheets [67.65802440158753]
本稿では、FactSheetsと呼ぶAIドキュメントの形式を作るための方法論について述べる。
方法論の各ステップの中で、検討すべき問題と探求すべき質問について説明する。
この方法論は、透明なAIドキュメントの採用を加速する。
論文 参考訳(メタデータ) (2020-06-24T15:08:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。