論文の概要: Articulation Work and Tinkering for Fairness in Machine Learning
- arxiv url: http://arxiv.org/abs/2407.16496v2
- Date: Wed, 28 Aug 2024 12:20:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-29 20:28:56.900769
- Title: Articulation Work and Tinkering for Fairness in Machine Learning
- Title(参考訳): 機械学習における調音作業とテクスチャリング
- Authors: Miriam Fahimi, Mayra Russo, Kristen M. Scott, Maria-Esther Vidal, Bettina Berendt, Katharina Kinder-Kurlanda,
- Abstract要約: 本稿では,コンピュータ科学と学際研究(SOI)の公正なAI分野における緊張関係について検討する。
公正なAIの場合、有効な研究に必要なタスク、リソース、アクターを分析します。
CS研究者はある程度SOI研究に携わるが、組織的条件、調音作業、社会世界のあいまいさはSOI研究の実施可能性を制限する。
- 参考スコア(独自算出の注目度): 5.4773558295476885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The field of fair AI aims to counter biased algorithms through computational modelling. However, it faces increasing criticism for perpetuating the use of overly technical and reductionist methods. As a result, novel approaches appear in the field to address more socially-oriented and interdisciplinary (SOI) perspectives on fair AI. In this paper, we take this dynamic as the starting point to study the tension between computer science (CS) and SOI research. By drawing on STS and CSCW theory, we position fair AI research as a matter of 'organizational alignment': what makes research 'doable' is the successful alignment of three levels of work organization (the social world, the laboratory, and the experiment). Based on qualitative interviews with CS researchers, we analyze the tasks, resources, and actors required for doable research in the case of fair AI. We find that CS researchers engage with SOI research to some extent, but organizational conditions, articulation work, and ambiguities of the social world constrain the doability of SOI research for them. Based on our findings, we identify and discuss problems for aligning CS and SOI as fair AI continues to evolve.
- Abstract(参考訳): 公正なAIの分野は、計算モデリングを通じてバイアスのあるアルゴリズムに対抗することを目指している。
しかし、過度に技術的および還元主義的手法の使用を永続させることに対する批判が高まっている。
結果として、公正なAIに関するより社会的指向的で学際的(SOI)な視点に対処する新たなアプローチが、この分野に現れている。
本稿では,コンピュータ科学(CS)とSOI研究の緊張関係を研究するための出発点として,この力学を考察する。
STSとCSCW理論に基づいて、我々は公正なAI研究を「組織的アライメント」の問題として位置づけている。
CS研究者の質的なインタビューに基づいて、公正なAIの場合、実行可能な研究に必要なタスク、リソース、アクターを分析します。
CS研究者はある程度SOI研究に携わるが、組織的条件、調音作業、社会世界のあいまいさはSOI研究の実施可能性を制限する。
我々の知見に基づいて、我々はCSとSOIを公平なAIが進化し続けるにつれて調整する問題を特定し、議論する。
関連論文リスト
- Quantifying Misalignment Between Agents [2.619545850602691]
近年,AIアライメント問題に対する懸念が高まっている。
我々は、観察されているエージェントの個体数によって、不一致がいかに異なるかを示す。
私たちのモデルは、価値仕様のアプローチから離れ、代わりにエージェントが実際に持っているような複雑な、インターロック、時には矛盾する目標に焦点を合わせています。
論文 参考訳(メタデータ) (2024-06-06T16:31:22Z) - AI for social science and social science of AI: A Survey [47.5235291525383]
人工知能の最近の進歩は、人工知能の可能性を再考するきっかけとなった。
AIの人間的能力の増大は、社会科学研究にも注目されている。
論文 参考訳(メタデータ) (2024-01-22T10:57:09Z) - On the Opportunities of Green Computing: A Survey [80.21955522431168]
人工知能(AI)は数十年にわたり、技術と研究において大きな進歩を遂げてきた。
高いコンピューティングパワーの必要性は、より高い二酸化炭素排出量をもたらし、研究の公正性を損なう。
コンピューティングリソースの課題とAIの環境への影響に取り組むため、グリーンコンピューティングはホットな研究トピックとなっている。
論文 参考訳(メタデータ) (2023-11-01T11:16:41Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - The ethical ambiguity of AI data enrichment: Measuring gaps in research
ethics norms and practices [2.28438857884398]
この研究は、AI研究とデータ豊か化のために、同等な研究倫理要件と規範がどのように開発されたか、そしてどの程度まで調査する。
主要なAI会場は、人間のデータ収集のためのプロトコルを確立し始めているが、これらは矛盾なく著者が追従している。
論文 参考訳(メタデータ) (2023-06-01T16:12:55Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - Human-Centered AI for Data Science: A Systematic Approach [48.71756559152512]
HCAI(Human-Centered AI)は、さまざまなヒューマンタスクをサポートするAI技術の設計と実装を目的とした研究活動である。
データサイエンス(DS)に関する一連の研究プロジェクトを使ってHCAIにどのようにアプローチするかをケーススタディとして紹介する。
論文 参考訳(メタデータ) (2021-10-03T21:47:13Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Socially Responsible AI Algorithms: Issues, Purposes, and Challenges [31.382000425295885]
技術者とAI研究者は、信頼できるAIシステムを開発する責任がある。
AIと人間の長期的な信頼を構築するためには、アルゴリズムの公正性を超えて考えることが鍵だ、と私たちは主張する。
論文 参考訳(メタデータ) (2021-01-01T17:34:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。