論文の概要: Do You Trust the Process?: Modeling Institutional Trust for Community Adoption of Reinforcement Learning Policies
- arxiv url: http://arxiv.org/abs/2510.22017v1
- Date: Fri, 24 Oct 2025 20:37:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.737419
- Title: Do You Trust the Process?: Modeling Institutional Trust for Community Adoption of Reinforcement Learning Policies
- Title(参考訳): プロセスは信頼できるか?:強化学習政策のコミュニティ導入のための制度的信頼をモデル化する
- Authors: Naina Balepur, Xingrui Pei, Hari Sundaram,
- Abstract要約: コミュニティにおける資源配分のための信頼度を考慮したRLアルゴリズムを開発した。
この制度的信頼の取り込みが成果にどのように影響するかを考察する。
信頼をRLアルゴリズムに組み込むことで、より成功したポリシーがもたらされることがわかりました。
- 参考スコア(独自算出の注目度): 5.661497909491039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many governmental bodies are adopting AI policies for decision-making. In particular, Reinforcement Learning has been used to design policies that citizens would be expected to follow if implemented. Much RL work assumes that citizens follow these policies, and evaluate them with this in mind. However, we know from prior work that without institutional trust, citizens will not follow policies put in place by governments. In this work, we develop a trust-aware RL algorithm for resource allocation in communities. We consider the case of humanitarian engineering, where the organization is aiming to distribute some technology or resource to community members. We use a Deep Deterministic Policy Gradient approach to learn a resource allocation that fits the needs of the organization. Then, we simulate resource allocation according to the learned policy, and model the changes in institutional trust of community members. We investigate how this incorporation of institutional trust affects outcomes, and ask how effectively an organization can learn policies if trust values are private. We find that incorporating trust into RL algorithms can lead to more successful policies, specifically when the organization's goals are less certain. We find more conservative trust estimates lead to increased fairness and average community trust, though organization success suffers. Finally, we explore a strategy to prevent unfair outcomes to communities. We implement a quota system by an external entity which decreases the organization's utility when it does not serve enough community members. We find this intervention can improve fairness and trust among communities in some cases, while decreasing the success of the organization. This work underscores the importance of institutional trust in algorithm design and implementation, and identifies a tension between organization success and community well-being.
- Abstract(参考訳): 多くの政府機関が意思決定にAIポリシーを採用しています。
特に強化学習(Reinforcement Learning)は、市民が実施すれば従うであろうポリシーの設計に使用されている。
多くのRL作業は、市民がこれらの方針に従い、それを念頭に評価することを前提としている。
しかし、これまでの作業から、制度的な信頼がなければ、市民は政府の方針に従わないことが分かっています。
本研究では,コミュニティにおける資源配分のための信頼を意識したRLアルゴリズムを提案する。
我々は、技術や資源をコミュニティメンバーに分配することを目的としている人道工学の事例を考察する。
私たちは、組織のニーズに合ったリソース割り当てを学ぶために、Deep Deterministic Policy Gradientアプローチを使用します。
そして、学習方針に従って資源配分をシミュレートし、コミュニティメンバーの制度的信頼の変化をモデル化する。
この制度的信頼が成果にどのように影響するかを考察し、信頼価値が非公開である場合、組織がいかに効果的に政策を学習できるかを問う。
信頼をRLアルゴリズムに組み込むことで、特に組織の目標が明確でない場合には、より成功的なポリシが実現できます。
組織の成功は苦しむものの、より保守的な信頼評価が公正性と平均的なコミュニティ信頼につながることが分かっています。
最後に,コミュニティに対する不公平な結果を防止するための戦略を検討する。
我々は,外部組織によるクォータシステムを実装し,コミュニティメンバが十分に役に立たない場合に,組織の有用性を低下させる。
この介入は、組織の成功を減らしながら、コミュニティ間の公平さと信頼を高めることができる。
この研究は、アルゴリズムの設計と実装における制度的信頼の重要性を強調し、組織の成功とコミュニティの幸福の緊張関係を明らかにする。
関連論文リスト
- Social Welfare Function Leaderboard: When LLM Agents Allocate Social Welfare [87.06241096619112]
大規模言語モデル(LLM)は、人間の福祉に影響を及ぼす高い意思決定にますます信頼されている。
本稿では, LLMが主権アロケータとして機能する動的シミュレーション環境である社会福祉機能ベンチマークを紹介する。
我々は、20の最先端LCMを評価し、社会福祉確保のための第1のリーダーボードを提示する。
論文 参考訳(メタデータ) (2025-10-01T17:52:31Z) - Corrupted by Reasoning: Reasoning Language Models Become Free-Riders in Public Goods Games [87.5673042805229]
大規模言語モデルは、アライメント、堅牢性、安全なデプロイメントを保証する上で、いかに自己関心と集合的幸福のバランスをとるかが重要な課題である。
我々は、行動経済学から制度的に選択した公共財ゲームに適応し、異なるLLMがいかに社会的ジレンマをナビゲートするかを観察することができる。
意外なことに、o1シリーズのようなLCMの推論は、協調にかなり苦労している。
論文 参考訳(メタデータ) (2025-06-29T15:02:47Z) - Artificial Intelligence in Government: Why People Feel They Lose Control [44.99833362998488]
行政における人工知能の利用は急速に拡大している。
AIはより効率と応答性を約束するが、政府機能への統合は公正性、透明性、説明責任に関する懸念を提起する。
この記事では、デリゲートの特別事例として、AI導入に関するプリンシパル・エージェント理論を適用します。
論文 参考訳(メタデータ) (2025-05-02T07:46:41Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - Quantitative Insights into Large Language Model Usage and Trust in Academia: An Empirical Study [27.7299835314702]
大規模言語モデル(LLM)は、多くの学術分野において、文章、読み、教え、知識検索を変革している。
使用状況の正確な定量化,アウトプットに対するユーザの信頼,デプロイメントの優先順位付けに要する重要な問題に関する懸念などが求められます。
本研究は, 私立R1研究大学の125名の個人を対象に, LLMの使用状況, LLMのアウトプットに対する信頼度, 学界におけるロバストな利用を優先する重要な課題について調査した。
論文 参考訳(メタデータ) (2024-09-13T20:45:50Z) - Do We Run How We Say We Run? Formalization and Practice of Governance in
OSS Communities [1.922428808969909]
この調査では、Apache Software Foundation Incubatorプログラムとサポートする208のプロジェクトについて調べる。
スケーラブルでセマンティックなパイプラインを組み立てて、メーリングリストからプロジェクトのガバナンス行動を発見し、分析します。
以上の結果から,コミュニティは形式的な要件や政策を定義どおりに広く観察する一方で,その日常的なガバナンスの焦点は,公式な政策決定のトピックに大きく依存していないことが示唆された。
論文 参考訳(メタデータ) (2023-09-25T16:04:11Z) - A Trust Framework for Government Use of Artificial Intelligence and
Automated Decision Making [0.1527458325979785]
本稿では,公共セクターシステムとプロセスの機械化,デジタル化,自動化の課題を明らかにする。
公立機関において、倫理的かつ高い精度の人工知能(AI)や自動意思決定(ADM)システムを保証するための近代的で実践的な枠組みを提案する。
論文 参考訳(メタデータ) (2022-08-22T06:51:15Z) - Governing online goods: Maturity and formalization in Minecraft, Reddit,
and World of Warcraft communities [0.0]
コミュニティの構築は、アクティブな人口と限られた資源の管理を意味する。
この研究は、サンドボックスゲームMinecraft、MMOゲームWorld of Warcraft、Redditの3つのプラットフォームにわたる80,000のコミュニティに対して、制度分析フレームワークを適用した。
オンラインコミュニティはプラットフォーム全体で同様のガバナンススタイルを採用しており、要件を"強く"する"ために"弱い"規範を強く好んでいます。
論文 参考訳(メタデータ) (2022-02-02T22:45:21Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。