論文の概要: Machine Learning Should Maximize Welfare, Not (Only) Accuracy
- arxiv url: http://arxiv.org/abs/2502.11981v1
- Date: Mon, 17 Feb 2025 16:22:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:17:21.436213
- Title: Machine Learning Should Maximize Welfare, Not (Only) Accuracy
- Title(参考訳): 機械学習は(完全に)正確ではなく、福祉を最大化するべきだ
- Authors: Nir Rosenfeld, Haifeng Xu,
- Abstract要約: 我々は、現在機械学習が欠落しており、社会福祉の適切な概念を取り入れることで、多くのものを得ることができると論じている。
予測を処分するのではなく,この機械学習を社会福祉の促進に活用することを目指す。
- 参考スコア(独自算出の注目度): 43.42518176927683
- License:
- Abstract: Decades of research in machine learning have given us powerful tools for making accurate predictions. But when used in social settings and on human inputs, better accuracy does not immediately translate to better social outcomes. This may not be surprising given that conventional learning frameworks are not designed to express societal preferences -- let alone promote them. This position paper argues that machine learning is currently missing, and can gain much from incorporating, a proper notion of social welfare. The field of welfare economics asks: how should we allocate limited resources to self-interested agents in a way that maximizes social benefit? We argue that this perspective applies to many modern applications of machine learning in social contexts, and advocate for its adoption. Rather than disposing of prediction, we aim to leverage this forte of machine learning for promoting social welfare. We demonstrate this idea by proposing a conceptual framework that gradually transitions from accuracy maximization (with awareness to welfare) to welfare maximization (via accurate prediction). We detail applications and use-cases for which our framework can be effective, identify technical challenges and practical opportunities, and highlight future avenues worth pursuing.
- Abstract(参考訳): 機械学習の研究は、正確な予測を行うための強力なツールを与えてくれました。
しかし、社会的設定や人間の入力で使われる場合、より正確さはすぐに社会的な結果に変換されない。
従来の学習フレームワークが社会的嗜好を表現するように設計されていないことを考えると、これは驚くことではないかもしれない。
このポジションペーパーは、機械学習が現在欠落しており、社会福祉の適切な概念を取り入れることで、多くを得ることができると主張している。
福祉経済学の分野は、社会的利益を最大化するために、どのように限られた資源を利害関係者に割り当てるべきなのか?
この観点は、社会的文脈における機械学習の現代の多くの応用に適用され、その採用を提唱する。
予測を処分するのではなく,この機械学習を社会福祉の促進に活用することを目指す。
この考え方は, 精度の最大化(福祉意識を伴う)から福祉の最大化(正確な予測による)へと徐々に移行する概念的枠組みを提案することによって実証される。
当社のフレームワークが効果的であるアプリケーションとユースケースを詳述し、技術的課題と実践的な機会を特定し、追求する価値のある将来的な方法を強調します。
関連論文リスト
- AI and Social Theory [0.0]
我々は、人工知能(AI)が意味するものを定義することから始まる、AI駆動型社会理論のプログラムをスケッチする。
そして、AIベースのモデルがデジタルデータの可用性を増大させ、予測力に基づいて異なる社会的理論の有効性をテストするためのモデルを構築します。
論文 参考訳(メタデータ) (2024-07-07T12:26:16Z) - Social Skill Training with Large Language Models [65.40795606463101]
人々は紛争解決のような社会的スキルに頼り、効果的にコミュニケーションし、仕事と個人の生活の両方で繁栄する。
本稿では,専門分野に進出する上での社会的スキルの障壁を明らかにする。
本稿では,大規模言語モデルを用いた総合的なフレームワークによるソーシャルスキルトレーニングのソリューションを提案する。
論文 参考訳(メタデータ) (2024-04-05T16:29:58Z) - The Relative Value of Prediction in Algorithmic Decision Making [0.0]
アルゴリズムによる意思決定における予測の相対的な価値は何か?
我々は,拡張アクセスの相対値を決定する,単純でシャープな条件を同定する。
本稿では,これらの理論的洞察を用いて,アルゴリズムによる意思決定システムの設計を現実的に導く方法について述べる。
論文 参考訳(メタデータ) (2023-12-13T20:52:45Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Socially-Optimal Mechanism Design for Incentivized Online Learning [32.55657244414989]
マルチアーム・バンディット(英: Multi-arm bandit、MAB)は、不確実な環境でのシーケンシャルな意思決定を研究する古典的なオンライン学習フレームワークである。
これは、スペクトル共有、クラウドセンシング、エッジコンピューティングなど、多くのアプリケーションにおいて事実上重要なシナリオである。
本稿では,このシナリオに対するインセンティブ付きオンライン学習(IOL)フレームワークを確立する。
論文 参考訳(メタデータ) (2021-12-29T00:21:40Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Envisioning Communities: A Participatory Approach Towards AI for Social
Good [10.504838259488844]
社会的善のためのAIは、AIシステムが影響するコミュニティによって評価されるべきである、と我々は主張する。
社会的良き研究のためのAIの設計と実装のための参加型アプローチと、その能力のアプローチがどのように一致するかを示す。
論文 参考訳(メタデータ) (2021-05-04T21:40:04Z) - The Use and Misuse of Counterfactuals in Ethical Machine Learning [2.28438857884398]
検討すべき事実が人種や性別などの社会的カテゴリーである場合に、反事実の使用にもっと注意を払っている。
機械学習の公正性と社会的説明可能性に対する反事実的アプローチは、社会的カテゴリとは何かという不合理な理論を必要とする可能性があると結論付けている。
論文 参考訳(メタデータ) (2021-02-09T19:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。