論文の概要: Towards Algorithmic Transparency: A Diversity Perspective
- arxiv url: http://arxiv.org/abs/2104.05658v1
- Date: Mon, 12 Apr 2021 17:28:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 13:58:55.339600
- Title: Towards Algorithmic Transparency: A Diversity Perspective
- Title(参考訳): アルゴリズムの透明性に向けて:多様性の展望
- Authors: Fausto Giunchiglia, Jahna Otterbacher, Styliani Kleanthous,
Khuyagbaatar Batsuren, Veronika Bogin, Tsvi Kuflik, Avital Shulner Tal
- Abstract要約: アルゴリズムバイアスの研究は近年爆発的であり、バイアスの問題と潜在的な解決策の両方を浮き彫りにしている。
透明性は、公平性管理とアルゴリズムの説明容易性を促進するために重要です。
私たちは多様性とバイアスの関係を振り返り、多様性が透明性の必要性を駆動すると主張します。
- 参考スコア(独自算出の注目度): 8.138520743045731
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As the role of algorithmic systems and processes increases in society, so
does the risk of bias, which can result in discrimination against individuals
and social groups. Research on algorithmic bias has exploded in recent years,
highlighting both the problems of bias, and the potential solutions, in terms
of algorithmic transparency (AT). Transparency is important for facilitating
fairness management as well as explainability in algorithms; however, the
concept of diversity, and its relationship to bias and transparency, has been
largely left out of the discussion. We reflect on the relationship between
diversity and bias, arguing that diversity drives the need for transparency.
Using a perspective-taking lens, which takes diversity as a given, we propose a
conceptual framework to characterize the problem and solution spaces of AT, to
aid its application in algorithmic systems. Example cases from three research
domains are described using our framework.
- Abstract(参考訳): 社会におけるアルゴリズムシステムとプロセスの役割が増加するにつれて、バイアスのリスクも増大し、個人や社会集団に対する差別につながる可能性がある。
アルゴリズムバイアスの研究は近年爆発的であり、アルゴリズム透明性(AT)の観点からバイアスの問題と潜在的な解決策の両方を強調している。
透明性は、公平性管理とアルゴリズムの説明可能性を促進する上で重要であるが、多様性の概念とバイアスと透明性との関係は、議論から大きく外れている。
我々は多様性とバイアスの関係を反映し、多様性が透明性の必要性を促進すると主張している。
多様性を前提としたパースペクティブ・テイク・レンズを用いて,アルゴリズムシステムにおけるその応用を支援するために,atの問題と解空間を特徴付ける概念的枠組みを提案する。
3つの研究領域の事例をフレームワークを用いて記述する。
関連論文リスト
- Algorithmic Fairness: A Tolerance Perspective [31.882207568746168]
この調査はアルゴリズムの公正性に関する既存の文献を掘り下げ、特にその多面的な社会的影響を強調している。
我々は「寛容」に基づく新しい分類法を導入し、公正な結果の変動が許容される度合いとして定義する。
我々の体系的なレビューは多様な産業をカバーし、アルゴリズムによる意思決定と社会的株式のバランスに関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-04-26T08:16:54Z) - Hierarchical Invariance for Robust and Interpretable Vision Tasks at Larger Scales [54.78115855552886]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Algorithmic Pluralism: A Structural Approach To Equal Opportunity [0.4954041894944345]
我々は、制度的な方法で平等な機会を促進するために、多くの異なる個人に利用可能な機会の多元性があることを論じる。
このフレームワークが,アルゴリズム採用における平等な機会に関する議論を通じて,システム設計と規制に何ら影響を及ぼすかを示す。
論文 参考訳(メタデータ) (2023-05-14T13:37:17Z) - Bias, diversity, and challenges to fairness in classification and
automated text analysis. From libraries to AI and back [3.9198548406564604]
分類と自動テキスト分析におけるAI利用における偏見と不公平性に関するリスクについて検討する。
我々は「多様性」の概念に関連して「不平等」の概念を詳しく見ていく。
論文 参考訳(メタデータ) (2023-03-07T20:54:49Z) - A Unified Algorithm Framework for Unsupervised Discovery of Skills based
on Determinantal Point Process [53.86223883060367]
教師なしオプション発見における多様性とカバレッジは、実際には同じ数学的枠組みの下で統一可能であることを示す。
提案アルゴリズムであるODPPは,MujocoとAtariで作成した課題に対して,広範囲に評価されている。
論文 参考訳(メタデータ) (2022-12-01T01:40:03Z) - Social Diversity Reduces the Complexity and Cost of Fostering Fairness [63.70639083665108]
不完全な情報や公平性の柔軟な基準を前提とした干渉機構の効果について検討する。
多様性の役割を定量化し、情報収集の必要性を減らす方法を示す。
この結果から,多様性が変化し,公正性向上を目指す機関に新たなメカニズムが開放されることが示唆された。
論文 参考訳(メタデータ) (2022-11-18T21:58:35Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Selection-Expansion: A Unifying Framework for Motion-Planning and
Diversity Search Algorithms [69.87173070473717]
本稿では,2つの多様性探索アルゴリズム,ノベルティ探索アルゴリズムとゴール探索処理アルゴリズムの特性について検討する。
mpアルゴリズムとの関係は、ポリシーパラメータ空間と結果空間の間のマッピングの滑らかさ、あるいは滑らかさの欠如が検索効率において重要な役割を担っていることを示している。
論文 参考訳(メタデータ) (2021-04-10T13:52:27Z) - End-to-End Learning and Intervention in Games [60.41921763076017]
ゲームにおける学習と介入のための統一的なフレームワークを提供する。
明示的および暗黙的な区別に基づく2つのアプローチを提案する。
分析結果は、実世界のいくつかの問題を用いて検証される。
論文 参考訳(メタデータ) (2020-10-26T18:39:32Z) - No computation without representation: Avoiding data and algorithm
biases through diversity [11.12971845021808]
学術的および専門的なコンピューティング分野における多様性の欠如と、データセットで発生するバイアスのタイプと幅の関連性を引き合いに出す。
これらの教訓を利用して、コンピューティングコミュニティが多様性を高めるための具体的なステップを提供するレコメンデーションを開発する。
論文 参考訳(メタデータ) (2020-02-26T23:07:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。