論文の概要: Preliminary Insights on Industry Practices for Addressing Fairness Debt
- arxiv url: http://arxiv.org/abs/2409.02432v1
- Date: Wed, 4 Sep 2024 04:18:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-05 20:15:07.498021
- Title: Preliminary Insights on Industry Practices for Addressing Fairness Debt
- Title(参考訳): 公正債務問題に対する産業実践に関する予備的考察
- Authors: Ronnie de Souza Santos, Luiz Fernando de Lima, Maria Teresa Baldassarre, Rodrigo Spinola,
- Abstract要約: 本研究は,ソフトウェア業界のAIシステムにおいて,ソフトウェアプロフェッショナルがバイアスを特定し,対処する方法について検討する。
本稿では,公正性負債に関する最初の証拠を提示し,AIシステムにおける公平性に関連する問題を管理するための構造化ガイドラインの開発基盤を提供する。
- 参考スコア(独自算出の注目度): 4.546982900370235
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Context: This study explores how software professionals identify and address biases in AI systems within the software industry, focusing on practical knowledge and real-world applications. Goal: We aimed to understand the strategies employed by practitioners to manage bias and their implications for fairness debt. Method: We used a qualitative research method, gathering insights from industry professionals through interviews and employing thematic analysis to explore the collected data. Findings: Professionals identify biases through discrepancies in model outputs, demographic inconsistencies, and issues with training data. They address these biases using strategies such as enhanced data management, model adjustments, crisis management, improving team diversity, and ethical analysis. Conclusion: Our paper presents initial evidence on addressing fairness debt and provides a foundation for developing structured guidelines to manage fairness-related issues in AI systems.
- Abstract(参考訳): コンテキスト: この研究は、ソフトウェアプロフェッショナルがソフトウェア業界内のAIシステムのバイアスを識別し、対処し、実践的な知識と現実世界のアプリケーションに焦点を当てる方法について調査する。
Goal: 実践者によるバイアス管理の戦略と,公平な負債に対するその影響を理解することを目的としています。
方法: 質的研究手法を用いて, 業界専門家からの洞察をインタビューを通じて収集し, テーマ分析を用いて収集したデータを探索した。
発見: 専門家は、モデルアウトプットの相違、人口統計上の矛盾、トレーニングデータに関する問題を通じてバイアスを識別する。
彼らは、データ管理の強化、モデル調整、危機管理、チームの多様性の改善、倫理的分析といった戦略を使って、これらのバイアスに対処する。
結論:本論文は,公正性負債に関する最初の証拠を提示し,AIシステムにおける公平性に関連する問題を管理するための構造化ガイドライン開発のための基盤を提供する。
関連論文リスト
- Fairness in AI-Driven Recruitment: Challenges, Metrics, Methods, and Future Directions [0.0]
ビッグデータと機械学習は、従来の採用プロセスに急激な変革をもたらした。
AIベースの採用の頻度を考えると、人間の偏見がこれらのシステムによって決定される可能性があるという懸念が高まっている。
本稿では、AIによる採用におけるバイアスの種類を議論することで、この新興分野の包括的概要を提供する。
論文 参考訳(メタデータ) (2024-05-30T05:25:14Z) - Causal Discovery with Language Models as Imperfect Experts [119.22928856942292]
専門知識を用いて因果グラフの同定を改善する方法について検討する。
整合性に基づく専門家の知識を改良するための戦略を提案する。
本稿では,不完全な専門家として大規模言語モデルを用いる実データを用いたケーススタディについて報告する。
論文 参考訳(メタデータ) (2023-07-05T16:01:38Z) - A Study of Situational Reasoning for Traffic Understanding [63.45021731775964]
トラフィック領域における状況推論のための3つの新しいテキストベースのタスクを考案する。
先行作業における言語推論タスクにまたがる一般化能力を示す知識強化手法を4つ採用する。
本稿では,データ分割におけるモデル性能の詳細な解析を行い,モデル予測を分類的に検討する。
論文 参考訳(メタデータ) (2023-06-05T01:01:12Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Harnessing value from data science in business: ensuring explainability
and fairness of solutions [0.0]
本稿では、人工知能における公正性と説明可能性(XAI)の概念を紹介し、洗練されたビジネス問題を解決することを目的としている。
公平性に関して、著者らはバイアスを誘発する特異点と関連する緩和方法について議論し、データ駆動型組織に公正性を導入するための一連のレシピを結論付けている。
論文 参考訳(メタデータ) (2021-08-10T11:59:38Z) - Fair Representation Learning for Heterogeneous Information Networks [35.80367469624887]
公平なHIN表現学習のための包括的非バイアス化手法を提案する。
これらのアルゴリズムの挙動,特にフェアネスと予測精度のトレードオフをバランスさせる能力について検討した。
キャリアカウンセリングの自動化アプリケーションにおいて,提案手法の性能を評価する。
論文 参考訳(メタデータ) (2021-04-18T08:28:18Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Principles and Practice of Explainable Machine Learning [12.47276164048813]
本稿では、特に機械学習(ML)とパターン認識モデルに関するデータ駆動手法に焦点を当てる。
メソッドの頻度と複雑さが増すにつれて、少なくともビジネスの利害関係者はモデルの欠点に懸念を抱いている。
我々は、業界実践者が説明可能な機械学習の分野をよりよく理解するための調査を実施した。
論文 参考訳(メタデータ) (2020-09-18T14:50:27Z) - No computation without representation: Avoiding data and algorithm
biases through diversity [11.12971845021808]
学術的および専門的なコンピューティング分野における多様性の欠如と、データセットで発生するバイアスのタイプと幅の関連性を引き合いに出す。
これらの教訓を利用して、コンピューティングコミュニティが多様性を高めるための具体的なステップを提供するレコメンデーションを開発する。
論文 参考訳(メタデータ) (2020-02-26T23:07:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。