論文の概要: Revealing Positive and Negative Role Models to Help People Make Good Decisions
- arxiv url: http://arxiv.org/abs/2603.02495v1
- Date: Tue, 03 Mar 2026 00:55:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.589626
- Title: Revealing Positive and Negative Role Models to Help People Make Good Decisions
- Title(参考訳): 肯定的かつ否定的な役割モデルを導入して人々が良い判断を下すのを助ける
- Authors: Avrim Blum, Keziah Naggita, Matthew R. Walter, Jingyan Wang,
- Abstract要約: エージェントがソーシャル・ネットワークにおける役割モデルに従うことによって行動を起こす環境を考える。
我々は,役割モデルが肯定的か否定的であるかを明らかにすることによって,エージェントを支援するソーシャルプランナーの戦略を研究する。
- 参考スコア(独自算出の注目度): 14.102738310566219
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider a setting where agents take action by following their role models in a social network, and study strategies for a social planner to help agents by revealing whether the role models are positive or negative. Specifically, agents observe a local neighborhood of possible role models they can emulate, but do not know their true labels. Revealing a positive label encourages emulation, while revealing a negative one redirects agents toward alternative options. The social planner observes all labels, but operates under a limited disclosure budget that it selectively allocates to maximize social welfare (the expected number of agents who emulate adjacent positive role models). We consider both algorithms and hardness results for welfare maximization, and provide a sample-complexity guarantee when the planner observes a sampled subset of agents. We also consider fairness guarantees when agents belong to different groups. It is a technical challenge that the ability to reveal negative role models breaks submodularity. We thus introduce a proxy welfare function that remains submodular even when revealed targets include negative ones. When each agent has at most a constant number of negative target neighbors, we use this proxy to achieve a constant-factor approximation to the true optimal welfare gain. When agents belong to different groups, we also show that each group's welfare gain is within a constant factor of the optimum achievable if the full budget were allocated to that group. Beyond this basic model, we also propose an intervention model that directly connects high-risk agents to positive role models, and a coverage radius model that expands the visibility of selected positive role models. Lastly, we conduct extensive experiments on four real-world datasets to support our theoretical results and assess the effectiveness of the proposed algorithms.
- Abstract(参考訳): 本研究では,ソーシャルネットワークにおける役割モデルに従うことによってエージェントが行動を起こす環境について考察し,その役割モデルが肯定的か否定的であるかを明らかにすることによって,エージェントを支援するためのソーシャルプランナーの戦略について考察する。
具体的には、エージェントはエミュレート可能なロールモデルの局所的な近傍を観察するが、真のラベルを知らない。
ポジティブなラベルの表示はエミュレーションを奨励し、ネガティブなラベルは代替オプションにエージェントをリダイレクトする。
ソーシャルプランナーは全てのラベルを観察するが、社会福祉を最大化するために選択的に割り当てる限られた開示予算の下で運営する(隣接するポジティブロールモデルをエミュレートするエージェントの数)。
我々は,福祉最大化のためのアルゴリズムと難易度の両方を考慮し,プランナーがエージェントのサンプルサブセットを観測した場合に,サンプル複雑度を保証する。
エージェントが異なるグループに属している場合の公平性も考慮する。
負の役割モデルを明らかにする能力がサブモジュラリティを損なうという技術的課題である。
そこで我々は, ターゲットが否定的である場合でも, サブモジュール的であり続けるプロキシ福祉機能を導入する。
各エージェントが少なくとも一定の数の負の目標近傍を持つ場合、我々はこのプロキシを使用して、真の最適福祉利得に対する定数要素近似を達成する。
エージェントが異なるグループに属している場合、各グループの福祉利得が、そのグループに全予算が割り当てられた場合、最適達成可能な一定の要素内にあることも示している。
この基本モデル以外にも、リスクの高いエージェントを直接ポジティブロールモデルに接続する介入モデルや、選択されたポジティブロールモデルの可視性を拡張するカバレッジ半径モデルも提案する。
最後に,提案アルゴリズムの有効性を評価するため,実世界の4つのデータセットについて広範な実験を行った。
関連論文リスト
- Current Agents Fail to Leverage World Model as Tool for Foresight [61.82522354207919]
エージェントは、行動する前に結果を予測するためにそれらを使用できます。
本稿では,現在のエージェントがそのような世界モデルを,認知力を高めるツールとして活用できるかどうかを実証的に検討する。
論文 参考訳(メタデータ) (2026-01-07T13:15:23Z) - Prior preferences in active inference agents: soft, hard, and goal shaping [3.2776596620344285]
アクティブ推論は、学習エージェントにおける搾取的および爆発的駆動のバランスをとる目的として、期待される自由エネルギーを提案する。
我々は、エージェントにハードまたはソフトな目標を与える、選好分布を定義するための4つの方法を検討する。
ゴールシェイピングは、環境の遷移ダイナミクスについて学習を犠牲にして、全体的なパフォーマンス(すなわち、搾取を促進すること)を最大限に発揮できることを示します。
論文 参考訳(メタデータ) (2025-12-02T23:07:24Z) - Proactive Agent: Shifting LLM Agents from Reactive Responses to Active Assistance [95.03771007780976]
我々は、人間の指示なしにタスクを予測および開始できるプロアクティブエージェントを開発するという課題に取り組む。
まず,実世界の人的活動を収集し,前向きなタスク予測を生成する。
これらの予測は、ヒトのアノテータによって受け入れられるか拒否されるかのどちらかとしてラベル付けされる。
ラベル付きデータは、人間の判断をシミュレートする報酬モデルをトレーニングするために使用される。
論文 参考訳(メタデータ) (2024-10-16T08:24:09Z) - Performative Prediction on Games and Mechanism Design [69.7933059664256]
エージェントが過去の正確性に基づいて予測を信頼するかを判断する集団リスクジレンマについて検討する。
予測が集合的な結果を形成するにつれて、社会福祉は関心の指標として自然に現れる。
よりよいトレードオフを実現し、それらをメカニズム設計に使用する方法を示します。
論文 参考訳(メタデータ) (2024-08-09T16:03:44Z) - Long-Term Fairness in Sequential Multi-Agent Selection with Positive Reinforcement [21.44063458579184]
大学入学や採用のような選抜プロセスでは、少数派からの応募者に対する偏見は肯定的なフィードバックをもたらすと仮定される。
グリーディスコアとフェアネスのバランスをとるマルチエージェント・フェア・グリーディ政策を提案する。
以上の結果から, 正の強化は長期的公正性にとって有望なメカニズムであるが, 進化モデルの変動に頑健な政策を慎重に設計する必要があることが示唆された。
論文 参考訳(メタデータ) (2024-07-10T04:03:23Z) - Select to Perfect: Imitating desired behavior from large multi-agent data [28.145889065013687]
AIエージェントのDesired特徴は、望ましいスコアを割り当てることで表現できる。
まず,各エージェントの行動が集団的嗜好性スコアに及ぼす影響を評価する。
本稿では,エージェントの交換値の概念を提案する。これは,個々のエージェントの集団的望ましさスコアへの貢献を定量化するものである。
論文 参考訳(メタデータ) (2024-05-06T15:48:24Z) - Pure Exploration under Mediators' Feedback [63.56002444692792]
マルチアームバンディット(Multi-armed bandits)は、各インタラクションステップにおいて、学習者が腕を選択し、報酬を観察する、シーケンシャルな意思決定フレームワークである。
本稿では,学習者が仲介者の集合にアクセスできるシナリオについて考察する。
本稿では,学習者には仲介者の方針が知られていると仮定して,最適な腕を発見するための逐次的意思決定戦略を提案する。
論文 参考訳(メタデータ) (2023-08-29T18:18:21Z) - Robust Allocations with Diversity Constraints [65.3799850959513]
エージェント値の積を最大化するナッシュ福祉規則は,多様性の制約が導入されたとき,一意にロバストな位置にあることを示す。
また, ナッシュ・ウェルズによる保証は, 広く研究されているアロケーション・ルールのクラスにおいて, ほぼ最適であることを示す。
論文 参考訳(メタデータ) (2021-09-30T11:09:31Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Heterogeneous Explore-Exploit Strategies on Multi-Star Networks [0.0]
エージェントがマルチスターネットワーク上で通信する分散帯域幅問題について検討する。
モデル不規則ネットワークグラフとしてマルチスターを用いた異種探索探索戦略を提案する。
論文 参考訳(メタデータ) (2020-09-02T20:56:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。