論文の概要: What Makes a Fairness Tool Project Sustainable in Open Source?
- arxiv url: http://arxiv.org/abs/2505.09802v1
- Date: Wed, 14 May 2025 20:58:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.106469
- Title: What Makes a Fairness Tool Project Sustainable in Open Source?
- Title(参考訳): オープンソースでフェアネスツールプロジェクトが持続可能になった理由
- Authors: Sadia Afrin Mim, Fatemeh Vares, Andrew Meenly, Brittany Johnson,
- Abstract要約: 多くのフェアネスツールは、無料使用と適応のために公開されている。
公平性は継続的な懸念であるため、これらのツールは長期的な持続可能性のために構築されなければならない。
- 参考スコア(独自算出の注目度): 4.637328271312331
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As society becomes increasingly reliant on artificial intelligence, the need to mitigate risk and harm is paramount. In response, researchers and practitioners have developed tools to detect and reduce undesired bias, commonly referred to as fairness tools. Many of these tools are publicly available for free use and adaptation. While the growing availability of such tools is promising, little is known about the broader landscape beyond well-known examples like AI Fairness 360 and Fairlearn. Because fairness is an ongoing concern, these tools must be built for long-term sustainability. Using an existing set of fairness tools as a reference, we systematically searched GitHub and identified 50 related projects. We then analyzed various aspects of their repositories to assess community engagement and the extent of ongoing maintenance. Our findings show diverse forms of engagement with these tools, suggesting strong support for open-source development. However, we also found significant variation in how well these tools are maintained. Notably, 53 percent of fairness projects become inactive within the first three years. By examining sustainability in fairness tooling, we aim to promote more stability and growth in this critical area.
- Abstract(参考訳): 社会が人工知能にますます依存するようになると、リスクと危害を軽減する必要性が最優先される。
これに対し、研究者や実践者は、好ましくない偏見を検知し、軽減するツールを開発してきた。
これらのツールの多くは、無償使用と適応のために公開されている。
このようなツールの普及は有望だが、AI Fairness 360やFairlearnといった有名な例を越えて、より広い視野についてはほとんど知られていない。
公平性は継続的な懸念であるため、これらのツールは長期的な持続可能性のために構築されなければならない。
既存のフェアネスツールをリファレンスとして使用して、GitHubを体系的に検索し、50の関連プロジェクトを特定しました。
そして,そのリポジトリのさまざまな側面を分析し,コミュニティの関与度と継続的なメンテナンスの程度を評価した。
調査の結果,これらのツールへの関与形態は様々であり,オープンソース開発への強力な支援が示唆された。
しかし、これらのツールの保守性にも大きな変化があった。
特に、フェアネスプロジェクトの53%は、最初の3年で不活発になる。
フェアネス・ツーリングの持続可能性を検討することで,この重要な領域の安定性と成長を促進することを目指す。
関連論文リスト
- From Expectation to Habit: Why Do Software Practitioners Adopt Fairness Toolkits? [11.05629708648904]
本研究では,公正度ツールキットの導入に影響を与える要因を個人的視点から検討した。
以上の結果から,期待度と習慣がフェアネスツールキット採用の主要な要因であることが判明した。
実践的な推奨事項としては、ツールキットのユーザビリティの向上、バイアス軽減プロセスの定期的な開発への統合、継続的なサポートの提供などがある。
論文 参考訳(メタデータ) (2024-12-18T13:38:28Z) - Individual context-free online community health indicators fail to identify open source software sustainability [3.192308005611312]
私たちは1年間に38のオープンソースプロジェクトを監視しました。
この期間に計画は放棄されず、計画された1つのプロジェクトのみが閉鎖された。
結果は極めて異質で、ドキュメント間の共通性はほとんどなく、イシューやコードコントリビューションに対するレスポンス時間の平均、資金/スタッフリソースが利用可能でした。
論文 参考訳(メタデータ) (2023-09-21T14:41:41Z) - LLM-based Interaction for Content Generation: A Case Study on the
Perception of Employees in an IT department [85.1523466539595]
本稿では,IT企業の従業員が生成ツールを使用する意図を明らかにするためのアンケート調査を行う。
以上の結果から, 生成ツールの比較的平均的な受容性が示唆されるが, ツールが有用であると認識されるほど, 意図が高くなることが示唆された。
分析の結果, 生産ツールの利用頻度は, 従業員が作業の文脈でこれらのツールをどのように認識しているかを理解する上で重要な要因である可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-18T15:35:43Z) - Tool Learning with Foundation Models [158.8640687353623]
基礎モデルの出現により、AIシステムは、人間としてのツールの使用に等しく適応できる可能性がある。
その大きな可能性にもかかわらず、この分野における重要な課題、機会、そして将来の取り組みに関する包括的な理解はいまだに欠けている。
論文 参考訳(メタデータ) (2023-04-17T15:16:10Z) - The Right Tool for the Job: Open-Source Auditing Tools in Machine
Learning [0.0]
近年,機械学習,AI倫理,アルゴリズム監査の公平性に関する議論が増えている。
多くのオープンソース監査ツールが利用可能だが、ユーザはツールや便利なもの、アクセス方法に常に気付いていない。
本稿は,これらのツールを実際に活用する緊急ニーズの強化と,それを実現するモチベーションの提供を目的としている。
論文 参考訳(メタデータ) (2022-06-20T15:20:26Z) - Exploring How Machine Learning Practitioners (Try To) Use Fairness
Toolkits [35.7895677378462]
業界実践者が既存の公正ツールキットでどのように機能するかについて検討する。
フェアネスツールキットが実践者のニーズに対処するいくつかの機会を特定します。
我々は、将来のオープンソースフェアネスツールキットの設計における意味を強調した。
論文 参考訳(メタデータ) (2022-05-13T23:07:46Z) - Uncertainty Quantification 360: A Holistic Toolkit for Quantifying and
Communicating the Uncertainty of AI [49.64037266892634]
我々は、AIモデルの不確実性定量化のためのオープンソースのPythonツールキットUncertainty Quantification 360 (UQ360)について述べる。
このツールキットの目標は2つある: ひとつは、AIアプリケーション開発ライフサイクルにおける不確実性を定量化し、評価し、改善し、伝達する共通のプラクティスを育むとともに、合理化するための幅広い能力を提供すること、もうひとつは、信頼できるAIの他の柱とのUQの接続をさらに探求することである。
論文 参考訳(メタデータ) (2021-06-02T18:29:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。