論文の概要: Incentive-Aware Machine Learning; Robustness, Fairness, Improvement & Causality
- arxiv url: http://arxiv.org/abs/2505.05211v1
- Date: Thu, 08 May 2025 13:04:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.888894
- Title: Incentive-Aware Machine Learning; Robustness, Fairness, Improvement & Causality
- Title(参考訳): インセンティブ・アウェア・機械学習:ロバスト性、公正性、改善と因果性
- Authors: Chara Podimata,
- Abstract要約: この記事では、個人が結果に影響を与えるためにインプットを戦略的に修正できる状況において、アルゴリズムによる意思決定に焦点を当てたインセンティブ対応機械学習(ML)の新たな領域について論じる。
この研究は、堅牢性、"ゲーム"に耐性のあるモデルを設計すること、公正性、それらのシステムの社会的影響を分析すること、そして、戦略行動が真の個人的または社会的改善につながる状況を認識すること、の3つの観点に分類されている。
- 参考スコア(独自算出の注目度): 5.112679200269859
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The article explores the emerging domain of incentive-aware machine learning (ML), which focuses on algorithmic decision-making in contexts where individuals can strategically modify their inputs to influence outcomes. It categorizes the research into three perspectives: robustness, aiming to design models resilient to "gaming"; fairness, analyzing the societal impacts of such systems; and improvement/causality, recognizing situations where strategic actions lead to genuine personal or societal improvement. The paper introduces a unified framework encapsulating models for these perspectives, including offline, online, and causal settings, and highlights key challenges such as differentiating between gaming and improvement and addressing heterogeneity among agents. By synthesizing findings from diverse works, we outline theoretical advancements and practical solutions for robust, fair, and causally-informed incentive-aware ML systems.
- Abstract(参考訳): この記事では、個人が結果に影響を与えるためにインプットを戦略的に修正できる状況において、アルゴリズムによる意思決定に焦点を当てたインセンティブ対応機械学習(ML)の新たな領域について論じる。
この研究は、堅牢性、"ゲーム"に耐性のあるモデルを設計すること、公正性、それらのシステムの社会的影響を分析すること、そして、戦略行動が真の個人的または社会的改善につながる状況を認識すること、の3つの観点に分類されている。
本稿では、オフライン、オンライン、因果設定など、これらの観点でモデルをカプセル化するための統一フレームワークを紹介し、ゲームと改善の差別化やエージェント間の不均一性への対処といった重要な課題を強調した。
多様な研究から得られた知見を合成することにより、ロバスト、公正、因果的インセンティブを意識したMLシステムのための理論的進歩と実践的解決策を概説する。
関連論文リスト
- Artificial Behavior Intelligence: Technology, Challenges, and Future Directions [1.5237607855633524]
本稿では,ABI(Artificial Behavior Intelligence)の技術的枠組みを定義する。
ABIは、人間の姿勢、表情、感情、行動シーケンス、文脈的手がかりを包括的に分析し、解釈する。
ポーズ推定、顔と感情の認識、シーケンシャルな行動分析、文脈認識モデリングなど、ABIの本質的なコンポーネントについて詳述する。
論文 参考訳(メタデータ) (2025-05-06T08:45:44Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Do as We Do, Not as You Think: the Conformity of Large Language Models [46.23852835759767]
本稿では,大規模言語モデル(LLM)による協調型AIシステムにおける適合性について述べる。
適合性の存在、適合性に影響を与える要因、潜在的な緩和戦略の3つの側面に焦点を当てる。
本分析では, 相互作用時間や過半数サイズなど, 適合性に影響を与える要因を解明し, 対象エージェントが適合行動をどのように合理化するかを検討する。
論文 参考訳(メタデータ) (2025-01-23T04:50:03Z) - Organizing a Society of Language Models: Structures and Mechanisms for Enhanced Collective Intelligence [0.0]
本稿では,大規模言語モデルからコミュニティ構造への変換手法を提案する。
協力型AIシステムに特有のメリットと課題を提示する,階層的,フラット,ダイナミック,フェデレートされたさまざまな組織モデルについて検討する。
このようなコミュニティの実装は、AIにおける問題解決能力を改善するための大きな約束を持っている。
論文 参考訳(メタデータ) (2024-05-06T20:15:45Z) - LLM as a Mastermind: A Survey of Strategic Reasoning with Large Language Models [75.89014602596673]
戦略推論は、戦略を調整しながら、マルチエージェント設定における敵の行動を理解し、予測する必要がある。
大規模言語モデルを用いた戦略的推論に関連するスコープ,アプリケーション,方法論,評価指標について検討する。
戦略的推論を重要な認知能力として重要視し、将来の研究の方向性や潜在的な改善に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Adaptive Contextual Perception: How to Generalize to New Backgrounds and
Ambiguous Objects [75.15563723169234]
本研究では,視覚モデルが分布外一般化の文脈をどのように適応的に利用するかを検討する。
1つの設定で優れているモデルは、もう1つの設定で苦労する傾向があります。
生物学的視覚の一般化能力を再現するためには、コンピュータビジョンモデルは背景表現に対して分解対象を持つ必要がある。
論文 参考訳(メタデータ) (2023-06-09T15:29:54Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - ComplAI: Theory of A Unified Framework for Multi-factor Assessment of
Black-Box Supervised Machine Learning Models [6.279863832853343]
ComplAIは、説明可能性、堅牢性、パフォーマンス、公正性、モデル行動を有効にし、観察し、分析し、定量化するユニークなフレームワークである。
教師付き機械学習モデルの評価は、正しい予測を行う能力だけでなく、全体的な責任の観点から行う。
論文 参考訳(メタデータ) (2022-12-30T08:48:19Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - End-to-End Learning and Intervention in Games [60.41921763076017]
ゲームにおける学習と介入のための統一的なフレームワークを提供する。
明示的および暗黙的な区別に基づく2つのアプローチを提案する。
分析結果は、実世界のいくつかの問題を用いて検証される。
論文 参考訳(メタデータ) (2020-10-26T18:39:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。