論文の概要: Unraveling the Interconnected Axes of Heterogeneity in Machine Learning
for Democratic and Inclusive Advancements
- arxiv url: http://arxiv.org/abs/2306.10043v1
- Date: Sun, 11 Jun 2023 20:47:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-26 01:51:04.959656
- Title: Unraveling the Interconnected Axes of Heterogeneity in Machine Learning
for Democratic and Inclusive Advancements
- Title(参考訳): 民主的・包括的発展のための機械学習における異種接続軸の展開
- Authors: Maryam Molamohammadi, Afaf Taik, Nicolas Le Roux, Golnoosh Farnadi
- Abstract要約: 機械学習製品の軌道に大きく影響を及ぼす不均一性の3つの軸を特定し解析する。
我々はこれらの軸が相互依存し、相互に影響を及ぼす様子を実証し、それらを共同で検討し、対処する必要性を強調した。
この3つの軸の断片化研究が大きな課題となり、現実のシナリオの反映を欠く非現実的な解空間へと繋がるかについて論じる。
- 参考スコア(独自算出の注目度): 16.514990457235932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growing utilization of machine learning (ML) in decision-making processes
raises questions about its benefits to society. In this study, we identify and
analyze three axes of heterogeneity that significantly influence the trajectory
of ML products. These axes are i) values, culture and regulations, ii) data
composition, and iii) resource and infrastructure capacity. We demonstrate how
these axes are interdependent and mutually influence one another, emphasizing
the need to consider and address them jointly. Unfortunately, the current
research landscape falls short in this regard, often failing to adopt a
holistic approach. We examine the prevalent practices and methodologies that
skew these axes in favor of a selected few, resulting in power concentration,
homogenized control, and increased dependency. We discuss how this fragmented
study of the three axes poses a significant challenge, leading to an
impractical solution space that lacks reflection of real-world scenarios.
Addressing these issues is crucial to ensure a more comprehensive understanding
of the interconnected nature of society and to foster the democratic and
inclusive development of ML systems that are more aligned with real-world
complexities and its diverse requirements.
- Abstract(参考訳): 意思決定プロセスにおける機械学習(ML)の利用の増加は、社会に対するその利益に関する疑問を提起する。
本研究では,ML製品の軌道に大きく影響を及ぼす不均一性の3つの軸を同定し,解析する。
これらの軸は
一 価値観、文化及び規制
二 データ構成、及び
三 資源及びインフラの容量
これらの軸が相互依存し、相互に影響を及ぼす様子を実証し、共同で考慮し、対処する必要性を強調する。
残念なことに、現在の研究環境はこの点において不足しており、しばしば全体論的アプローチの採用に失敗している。
本研究は,これらの軸をスキューし,選択された数個を選別し,電力集中,均質化制御,依存度の増加を図った。
この3つの軸の断片化研究が大きな課題となり、現実のシナリオを反映しない非現実的な解空間へと繋がる。
これらの問題に対処することは、社会の相互接続の性質をより包括的に理解し、現実の複雑さとその多様な要件により整合した、民主的で包括的なMLシステムの開発を促進するために不可欠である。
関連論文リスト
- SoK: Taming the Triangle -- On the Interplays between Fairness,
Interpretability and Privacy in Machine Learning [0.0]
機械学習技術は、高い意思決定にますます使われています。
学習したモデルが人間によって監査され、理解されることを保証することが不可欠である。
解釈可能性、公正性、プライバシは、責任ある機械学習を開発する上で重要な要件です。
論文 参考訳(メタデータ) (2023-12-22T08:11:33Z) - Reproducibility in Machine Learning-Driven Research [1.7936835766396748]
研究は生存可能性の危機に直面しており、多くの研究の結果や発見は、再現することが困難または不可能である。
機械学習(ML)と人工知能(AI)の研究においても、これは同じである。
MLプラットフォームの使用などの研究コミュニティでは,この問題に対処するさまざまなソリューションが議論されているが,MLによる研究のレベルは大幅に上昇していない。
論文 参考訳(メタデータ) (2023-07-19T07:00:22Z) - Causal Deep Learning [77.49632479298745]
因果性は、現実世界の問題を解決する方法を変える可能性がある。
しかし因果関係は、実際にテストできない重要な仮定を必要とすることが多い。
我々は、因果性に関する新しい考え方を提案します。
論文 参考訳(メタデータ) (2023-03-03T19:19:18Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Automating Ambiguity: Challenges and Pitfalls of Artificial Intelligence [0.0]
この論文は、科学と倫理の課題、落とし穴、AIの問題を調査するために、明らかに異なる分野の探求を織り交ぜている。
これらのシステムの様々な課題、問題、落とし穴は、批判的データ/アルゴリズム研究、科学と技術研究(STS)、具体化され活発な認知科学、複雑性科学、アフロフェミニズム、そして広く解釈された公正、説明責任、透明性の分野(FAccT)など、様々な分野の研究のホットトピックである。
論文 参考訳(メタデータ) (2022-06-08T22:05:07Z) - Seeing Differently, Acting Similarly: Imitation Learning with
Heterogeneous Observations [126.78199124026398]
多くの実世界の模倣学習タスクでは、デモレーターと学習者は異なるが完全な観察空間で行動しなければならない。
本研究では、上記の学習問題を異種観察学習(HOIL)としてモデル化する。
本稿では,重要度重み付け,拒否学習,アクティブクエリに基づくIWREアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-17T05:44:04Z) - Which Mutual-Information Representation Learning Objectives are
Sufficient for Control? [80.2534918595143]
相互情報は、データの表現を学習するために魅力的な形式を提供する。
本稿では,最適政策の学習と表現のための状態表現の十分性について定式化する。
意外なことに、これらの2つの目的は、MDPの構造に関する軽度で一般的な仮定を前提に、不十分な表現をもたらす可能性がある。
論文 参考訳(メタデータ) (2021-06-14T10:12:34Z) - An Empirical Comparison of Bias Reduction Methods on Real-World Problems
in High-Stakes Policy Settings [13.037143215464132]
4つの実世界の公共政策と社会善問題にまたがる機械学習パイプラインの異なる点で動作する複数の手法の性能について検討した。
モデルフェア性を改善するために,これらの手法の多種多様なバラツキと非一貫性を見出したが,グループ固有のスコアしきい値の選択による後処理は,一貫して差を除去している。
論文 参考訳(メタデータ) (2021-05-13T17:33:28Z) - Heterogeneous Representation Learning: A Review [66.12816399765296]
不均一表現学習(HRL)には、いくつかの独特な課題がある。
異種入力を用いて既存の学習環境をモデル化可能な統合学習フレームワークを提案する。
HRLでは触れられていない課題と今後の研究方向性を強調します。
論文 参考訳(メタデータ) (2020-04-28T05:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。