論文の概要: When AI Democratizes Exploitation: LLM-Assisted Strategic Manipulation of Fair Division Algorithms
- arxiv url: http://arxiv.org/abs/2511.14722v1
- Date: Tue, 18 Nov 2025 18:09:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.254856
- Title: When AI Democratizes Exploitation: LLM-Assisted Strategic Manipulation of Fair Division Algorithms
- Title(参考訳): AIが爆発を民主化する時--LLM支援によるフェアディビジョンアルゴリズムの戦略操作
- Authors: Priyanka Verma, Balagopal Unnikrishnan,
- Abstract要約: 本稿では,Large Language Models(LLM)が戦略的専門知識へのアクセスを民主化することによって,保護障壁を解消する方法について述べる。
本稿では,AIアシスタントへの単純な対話クエリを通じて,動作可能な操作戦略をユーザに提供する。
実験の結果、LLMはアルゴリズム力学を説明でき、利益の相違を識別し、調整された選好の誤報告のための具体的な数値入力を生成することができることがわかった。
- 参考スコア(独自算出の注目度): 1.0365487946214889
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Fair resource division algorithms, like those implemented in Spliddit platform, have traditionally been considered difficult for the end users to manipulate due to its complexities. This paper demonstrates how Large Language Models (LLMs) can dismantle these protective barriers by democratizing access to strategic expertise. Through empirical analysis of rent division scenarios on Spliddit algorithms, we show that users can obtain actionable manipulation strategies via simple conversational queries to AI assistants. We present four distinct manipulation scenarios: exclusionary collusion where majorities exploit minorities, defensive counterstrategies that backfire, benevolent subsidization of specific participants, and cost minimization coalitions. Our experiments reveal that LLMs can explain algorithmic mechanics, identify profitable deviations, and generate specific numerical inputs for coordinated preference misreporting--capabilities previously requiring deep technical knowledge. These findings extend algorithmic collective action theory from classification contexts to resource allocation scenarios, where coordinated preference manipulation replaces feature manipulation. The implications reach beyond rent division to any domain using algorithmic fairness mechanisms for resource division. While AI-enabled manipulation poses risks to system integrity, it also creates opportunities for preferential treatment of equity deserving groups. We argue that effective responses must combine algorithmic robustness, participatory design, and equitable access to AI capabilities, acknowledging that strategic sophistication is no longer a scarce resource.
- Abstract(参考訳): Splidditプラットフォームで実装されているような公平なリソース分割アルゴリズムは、従来、エンドユーザがその複雑さのために操作することが難しいと考えられてきた。
本稿では,Large Language Models (LLM) が戦略的専門知識へのアクセスを民主化することで,これらの保護障壁を解消できることを示す。
Splidditアルゴリズムのレンタル分割シナリオを実証分析することにより、ユーザはAIアシスタントへの単純な対話クエリを通じて、実行可能な操作戦略を得ることができることを示す。
多数派が少数派を搾取する排他的共謀、バックファイアの防衛戦略、特定の参加者の好意的な助成金、コスト最小化連立の4つの異なる操作シナリオを提示する。
実験の結果、LLMはアルゴリズム力学を説明でき、利益の相違を識別し、調整された選好の誤報告のための具体的な数値入力を生成することができることがわかった。
これらの知見は、アルゴリズム的集団行動理論を、分類コンテキストからリソース割り当てシナリオまで拡張する。
この意味合いは、リソース分割のためのアルゴリズム的公正性メカニズムを使用して、レンタル分割を越えて任意のドメインに到達する。
AI対応の操作はシステムの完全性にリスクをもたらすが、エクイティ保護グループを優先的に扱う機会も生み出す。
我々は、効果的な応答はアルゴリズムの堅牢性、参加型設計、AI能力への公平なアクセスを組み合わせなければならないと論じ、戦略的洗練はもはや希少なリソースではないことを認めている。
関連論文リスト
- Collective dynamics of strategic classification [49.14942990735098]
ユーザと機関の集団間のフィードバックループ問題に進化ゲーム理論を適用した。
検知能力の向上は社会的コストを低減し,ユーザの改善につながる可能性が示唆された。
施設が利用者の人口に再適応する速度は、最終結果に果たす役割を担っている。
論文 参考訳(メタデータ) (2025-08-12T20:57:17Z) - Counterfactual Explanations via Locally-guided Sequential Algorithmic
Recourse [13.95253855760017]
提案するLocalFACEは,現実的かつ実用的な対実的説明を構成するモデルに依存しない手法である。
提案手法は, ユーザのプライバシーを, 行動可能なアルゴリズムによる会話の構築に必要なデータのみを活用することで保護する。
論文 参考訳(メタデータ) (2023-09-08T08:47:23Z) - Strategy Synthesis in Markov Decision Processes Under Limited Sampling
Access [3.441021278275805]
グレーボックスマルコフ決定プロセス(MDP)によってモデル化された環境において、エージェントの作用の影響は後継状態の点で知られているが、関連する合成は知られていない。
本稿では,区間型MDPを内部モデルとして用いた強化学習により,グレーボックス型MDPの戦略アルゴリズムを考案する。
論文 参考訳(メタデータ) (2023-03-22T16:58:44Z) - Safe Multi-agent Learning via Trapping Regions [89.24858306636816]
我々は、動的システムの定性理論から知られているトラップ領域の概念を適用し、分散学習のための共同戦略空間に安全セットを作成する。
本稿では,既知の学習力学を持つシステムにおいて,候補がトラップ領域を形成することを検証するための二分分割アルゴリズムと,学習力学が未知のシナリオに対するサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-27T14:47:52Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Inapplicable Actions Learning for Knowledge Transfer in Reinforcement
Learning [3.194414753332705]
学習不能な動作はRLアルゴリズムのサンプル効率を大幅に向上させることを示す。
得られた知識の伝達性のおかげで、学習プロセスをより効率的にするために、他のタスクやドメインで再利用することができる。
論文 参考訳(メタデータ) (2022-11-28T17:45:39Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。