論文の概要: Machine Learning Should Maximize Welfare, but Not by (Only) Maximizing Accuracy
- arxiv url: http://arxiv.org/abs/2502.11981v2
- Date: Sun, 08 Jun 2025 20:32:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:09.900868
- Title: Machine Learning Should Maximize Welfare, but Not by (Only) Maximizing Accuracy
- Title(参考訳): 機械学習は福祉を最大化するべきだが、正確さを最大化してはならない
- Authors: Nir Rosenfeld, Haifeng Xu,
- Abstract要約: 機械学習が社会的に有益になるためには、社会福祉を最大化することを目的とした、より広範な経済枠組みに組み込まなければならない、と我々は主張する。
我々は,この概念を,(意識のある)正確性から(正確な予測を通じて)福祉へ徐々に移行する概念的枠組みを描写することによって実証する。
- 参考スコア(独自算出の注目度): 43.42518176927683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decades of research in machine learning have given us powerful tools for making accurate predictions. This has made such tools appealing for use in social settings and on human inputs. Yet despite a lack of justification for why the generic approach of accuracy maximization can or should improve our collective well-being -- and mounting evidence of likely adverse outcomes -- it remains the widespread default. This position paper asserts that for machine learning to become socially beneficial, it must be embedded within a broader economic framework that explicitly aims to maximize social welfare. The field of welfare economics asks: how should we allocate limited resources among self-interested agents to maximize overall benefits? We contend that this perspective applies to many contemporary applications of machine learning in social contexts, and advocate for its adoption. Rather than disposing of prediction, we propose to leverage this forte of machine learning towards welfare maximization. We demonstrate this idea by portraying a conceptual framework that gradually transitions from accuracy maximization (with awareness to welfare) to welfare maximization (via accurate prediction). We detail applications and use-cases for which this framework can be effective, identify technical challenges and practical opportunities, and highlight future avenues worth pursuing.
- Abstract(参考訳): 機械学習の研究は、正確な予測を行うための強力なツールを与えてくれました。
これにより、社会的設定や人間の入力での使用をアピールするツールとなった。
しかし、なぜ精度の最大化という一般的なアプローチが我々の集団的幸福を改善できるのか、あるいは改善すべきなのかという正当化の欠如にもかかわらず、それは広く行き渡ったデフォルトのままである。
このポジションペーパーは、機械学習が社会的に有益になるためには、社会福祉を最大化することを目的とした広範な経済枠組みに組み込まなければならないと主張している。
福祉経済学の分野は「全体的利益を最大化するために、自己関心のエージェントに限られた資源を割り当てるにはどうすればいいのか?
この観点は、社会的文脈における機械学習の多くの現代的応用に適用され、その採用を提唱する。
予測を処理するのではなく,この機械学習の手法を,福祉の最大化に活用することを提案する。
我々は,この概念を,(意識を伴って)正確さの最大化から(正確な予測を通じて)福祉の最大化へと徐々に移行する概念的枠組みを表現することによって実証する。
このフレームワークが有効であるアプリケーションとユースケースを詳述し、技術的課題と実践的な機会を特定し、追求する価値のある将来の方法を強調します。
関連論文リスト
- Performative Prediction on Games and Mechanism Design [69.7933059664256]
エージェントが過去の正確性に基づいて予測を信頼するかを判断する集団リスクジレンマについて検討する。
予測が集合的な結果を形成するにつれて、社会福祉は関心の指標として自然に現れる。
よりよいトレードオフを実現し、それらをメカニズム設計に使用する方法を示します。
論文 参考訳(メタデータ) (2024-08-09T16:03:44Z) - AI and Social Theory [0.0]
我々は、人工知能(AI)が意味するものを定義することから始まる、AI駆動型社会理論のプログラムをスケッチする。
そして、AIベースのモデルがデジタルデータの可用性を増大させ、予測力に基づいて異なる社会的理論の有効性をテストするためのモデルを構築します。
論文 参考訳(メタデータ) (2024-07-07T12:26:16Z) - Social Skill Training with Large Language Models [65.40795606463101]
人々は紛争解決のような社会的スキルに頼り、効果的にコミュニケーションし、仕事と個人の生活の両方で繁栄する。
本稿では,専門分野に進出する上での社会的スキルの障壁を明らかにする。
本稿では,大規模言語モデルを用いた総合的なフレームワークによるソーシャルスキルトレーニングのソリューションを提案する。
論文 参考訳(メタデータ) (2024-04-05T16:29:58Z) - The Relative Value of Prediction in Algorithmic Decision Making [0.0]
アルゴリズムによる意思決定における予測の相対的な価値は何か?
我々は,拡張アクセスの相対値を決定する,単純でシャープな条件を同定する。
本稿では,これらの理論的洞察を用いて,アルゴリズムによる意思決定システムの設計を現実的に導く方法について述べる。
論文 参考訳(メタデータ) (2023-12-13T20:52:45Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Socially-Optimal Mechanism Design for Incentivized Online Learning [32.55657244414989]
マルチアーム・バンディット(英: Multi-arm bandit、MAB)は、不確実な環境でのシーケンシャルな意思決定を研究する古典的なオンライン学習フレームワークである。
これは、スペクトル共有、クラウドセンシング、エッジコンピューティングなど、多くのアプリケーションにおいて事実上重要なシナリオである。
本稿では,このシナリオに対するインセンティブ付きオンライン学習(IOL)フレームワークを確立する。
論文 参考訳(メタデータ) (2021-12-29T00:21:40Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Envisioning Communities: A Participatory Approach Towards AI for Social
Good [10.504838259488844]
社会的善のためのAIは、AIシステムが影響するコミュニティによって評価されるべきである、と我々は主張する。
社会的良き研究のためのAIの設計と実装のための参加型アプローチと、その能力のアプローチがどのように一致するかを示す。
論文 参考訳(メタデータ) (2021-05-04T21:40:04Z) - The Use and Misuse of Counterfactuals in Ethical Machine Learning [2.28438857884398]
検討すべき事実が人種や性別などの社会的カテゴリーである場合に、反事実の使用にもっと注意を払っている。
機械学習の公正性と社会的説明可能性に対する反事実的アプローチは、社会的カテゴリとは何かという不合理な理論を必要とする可能性があると結論付けている。
論文 参考訳(メタデータ) (2021-02-09T19:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。