論文の概要: Reducing Discrimination in Learning Algorithms for Social Good in
Sociotechnical Systems
- arxiv url: http://arxiv.org/abs/2011.13988v2
- Date: Sun, 6 Dec 2020 05:10:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 02:56:46.507554
- Title: Reducing Discrimination in Learning Algorithms for Social Good in
Sociotechnical Systems
- Title(参考訳): 社会技術システムにおける社会福祉学習アルゴリズムの差別化
- Authors: Katelyn Morrison
- Abstract要約: 都市のスマートモビリティイニシアチブは、機械学習アルゴリズムを使って課題に対処する。
また、これらのアルゴリズムが社会経済的地位などの特徴に対して意図せず差別し、アルゴリズムフェアネスの重要性を動機付けている点についても論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sociotechnical systems within cities are now equipped with machine learning
algorithms in hopes to increase efficiency and functionality by modeling and
predicting trends. Machine learning algorithms have been applied in these
domains to address challenges such as balancing the distribution of bikes
throughout a city and identifying demand hotspots for ride sharing drivers.
However, these algorithms applied to challenges in sociotechnical systems have
exacerbated social inequalities due to previous bias in data sets or the lack
of data from marginalized communities. In this paper, I will address how smart
mobility initiatives in cities use machine learning algorithms to address
challenges. I will also address how these algorithms unintentionally
discriminate against features such as socioeconomic status to motivate the
importance of algorithmic fairness. Using the bike sharing program in
Pittsburgh, PA, I will present a position on how discrimination can be
eliminated from the pipeline using Bayesian Optimization.
- Abstract(参考訳): 都市の社会技術システムは、トレンドをモデル化し予測することによって効率と機能性を向上させるために、機械学習アルゴリズムを備えている。
機械学習アルゴリズムは、都市全体の自転車の分布のバランスや、ライドシェアリングドライバーの需要ホットスポットの特定といった課題に対処するために、これらの領域に応用されている。
しかし、これらのアルゴリズムは社会技術システムの課題に適用され、過去のデータセットの偏見や疎外化コミュニティのデータ不足により社会的不平等が悪化した。
本稿では,都市におけるスマートモビリティイニシアチブが,機械学習アルゴリズムを用いて課題に対処する方法について論じる。
また、これらのアルゴリズムが社会経済的地位などの特徴に対して意図せず差別し、アルゴリズムフェアネスの重要性を動機付けている点についても論じる。
ペンシルベニア州ピッツバーグの自転車シェアリングプログラムを用いて、ベイズ最適化を用いて、パイプラインからどのように差別を排除できるかを示す。
関連論文リスト
- Long-Term Fairness with Unknown Dynamics [16.683582656377396]
オンライン強化学習の文脈における長期的公正性を定式化する。
アルゴリズムは短期インセンティブを犠牲にして未知のダイナミクスに適応できることを示す。
論文 参考訳(メタデータ) (2023-04-19T01:13:37Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Stochastic Differentially Private and Fair Learning [7.971065005161566]
我々は、収束することが保証されるフェアラーニングのための最初の微分プライベートアルゴリズムを提供する。
われわれのフレームワークは、人口格差や均等化オッズなど、さまざまな公平さを許容できるほど柔軟である。
本アルゴリズムは,複数の(非バイナリ)機密属性を持つ非バイナリ分類タスクに適用可能である。
論文 参考訳(メタデータ) (2022-10-17T06:54:57Z) - Reinforcement Learning Algorithms: An Overview and Classification [0.0]
本研究では,3種類の環境タイプを特定し,それらの環境タイプに応じて強化学習アルゴリズムを分類する。
各アルゴリズムの概要は、アルゴリズムの基礎についての洞察を与え、アルゴリズム間の類似点と相違点をレビューする。
論文 参考訳(メタデータ) (2022-09-29T16:58:42Z) - Cooperative Behavioral Planning for Automated Driving using Graph Neural
Networks [0.5801044612920815]
本研究は,複数の車両を共同で計画することで,都市交差点における交通流の最適化に機械学習アルゴリズムを活用することを提案する。
学習に基づく行動計画にはいくつかの課題が伴い、適切な入力と出力の表現と大量の基幹データを要求する。
自動運転における意思決定のためのオープンソースのシミュレーション環境において,提案手法を訓練し,評価する。
論文 参考訳(メタデータ) (2022-02-23T09:36:15Z) - Learning from Heterogeneous Data Based on Social Interactions over
Graphs [58.34060409467834]
本研究では,個別のエージェントが異なる次元のストリーミング特徴を観察しながら分類問題の解決を目指す分散アーキテクチャを提案する。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
論文 参考訳(メタデータ) (2021-12-17T12:47:18Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z) - Fair Representation Learning for Heterogeneous Information Networks [35.80367469624887]
公平なHIN表現学習のための包括的非バイアス化手法を提案する。
これらのアルゴリズムの挙動,特にフェアネスと予測精度のトレードオフをバランスさせる能力について検討した。
キャリアカウンセリングの自動化アプリケーションにおいて,提案手法の性能を評価する。
論文 参考訳(メタデータ) (2021-04-18T08:28:18Z) - GAEA: Graph Augmentation for Equitable Access via Reinforcement Learning [50.90625274621288]
異なるサブ人口によるリソースへの別のアクセスは、社会および社会技術ネットワークにおける一般的な問題です。
予算制約下でグラフエッジを編集することにより,ネットワークシステムにおける公平性を高めるため,新たな問題クラスであるグラフ拡張・等価アクセス(GAEA)を導入する。
論文 参考訳(メタデータ) (2020-12-07T18:29:32Z) - Optimal Robustness-Consistency Trade-offs for Learning-Augmented Online
Algorithms [85.97516436641533]
機械学習予測を取り入れたオンラインアルゴリズムの性能向上の課題について検討する。
目標は、一貫性と堅牢性の両方を備えたアルゴリズムを設計することだ。
機械学習予測を用いた競合解析のための非自明な下界の最初のセットを提供する。
論文 参考訳(メタデータ) (2020-10-22T04:51:01Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。