論文の概要: Envisioning a Human-AI collaborative system to transform policies into
decision models
- arxiv url: http://arxiv.org/abs/2212.06882v1
- Date: Tue, 1 Nov 2022 18:29:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-20 19:19:56.612658
- Title: Envisioning a Human-AI collaborative system to transform policies into
decision models
- Title(参考訳): 政策を意思決定モデルに変換する人間-AI協調システムの構築
- Authors: Vanessa Lopez, Gabriele Picco, Inge Vejsbjerg, Thanh Lam Hoang, Yufang
Hou, Marco Luca Sbodio, John Segrave-Daly, Denisa Moga, Sean Swords, Miao Wei
and Eoin Carroll
- Abstract要約: 我々は、人力で読み取り可能なポリシールールと機械で実行可能なポリシールールの両方をスケールする上で、政府機関や政策専門家を支援するAIの巨大な可能性を探る。
我々は、ポリシー文書から、AI、NLP、知識グラフを用いた実行可能、解釈可能、標準化された決定モデルへのルートを短くするための、初期的アプローチを提案する。
オープンドメインの課題は数多くありますが、このポジションペーパーでは、人力で読み取り可能なポリシルールとマシン実行可能なポリシルールの両方をスケールする上で、政府機関や政策専門家を支援するAIの巨大な可能性について検討します。
- 参考スコア(独自算出の注目度): 7.9231719294492065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Regulations govern many aspects of citizens' daily lives. Governments and
businesses routinely automate these in the form of coded rules (e.g., to check
a citizen's eligibility for specific benefits). However, the path to automation
is long and challenging. To address this, recent global initiatives for digital
government, proposing to simultaneously express policy in natural language for
human consumption as well as computationally amenable rules or code, are
gathering broad public-sector interest. We introduce the problem of
semi-automatically building decision models from eligibility policies for
social services, and present an initial emerging approach to shorten the route
from policy documents to executable, interpretable and standardised decision
models using AI, NLP and Knowledge Graphs. Despite the many open domain
challenges, in this position paper we explore the enormous potential of AI to
assist government agencies and policy experts in scaling the production of both
human-readable and machine executable policy rules, while improving
transparency, interpretability, traceability and accountability of the decision
making.
- Abstract(参考訳): 規制は市民の日常生活の多くの側面を支配している。
政府や企業は、コード化された規則(例えば、特定の利益のために市民の適格性をチェックするために)の形でこれを日常的に自動化する。
しかし、自動化への道は長くて困難です。
これに対処するため、デジタル政府のための最近のグローバルイニシアティブは、人間の消費のための自然言語と計算可能な規則やコードを同時に表現することを提案しており、広く公共の関心を集めている。
本稿では,ソーシャルサービスのための資格ポリシーから意思決定モデルを半自動構築する問題を紹介し,ポリシー文書からAI,NLP,知識グラフを用いた決定モデルの実行,解釈,標準化までの道程を短縮する初期的アプローチを提案する。
オープンドメインの課題を数多く抱えているが、このポジションでは、透明性、解釈可能性、トレーサビリティ、意思決定の責任性を改善しながら、人間の可読性と機械実行可能ポリシールールの両方の生産をスケールする上で、政府機関や政策の専門家を支援するaiの膨大な可能性を探求する。
関連論文リスト
- Generative AI Needs Adaptive Governance [0.0]
ジェネレーティブAIは、ガバナンス、信頼、ヒューマンエージェンシーの概念に挑戦する。
本稿では,ジェネレーティブAIが適応的ガバナンスを求めていることを論じる。
我々は、アクター、ロール、および共有およびアクター固有のポリシー活動の概要を概説する。
論文 参考訳(メタデータ) (2024-06-06T23:47:14Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Aligning Artificial Intelligence with Humans through Public Policy [0.0]
このエッセイは、下流のタスクに活用可能なポリシーデータの構造を学ぶAIの研究の概要を概説する。
これはAIとポリシーの"理解"フェーズを表していると私たちは考えていますが、AIを整合させるために人的価値の重要な源としてポリシーを活用するには、"理解"ポリシーが必要です。
論文 参考訳(メタデータ) (2022-06-25T21:31:14Z) - Think About the Stakeholders First! Towards an Algorithmic Transparency
Playbook for Regulatory Compliance [14.043062659347427]
世界中の政府によって、公共および民間セクターに導入された人工知能(AI)システムを規制するための法律が提案され、可決されている。
これらの規則の多くは、AIシステムの透明性と、関連する市民意識の問題に対処している。
我々は,透明で規制に適合したシステムを設計する上で,技術者を支援する新たな利害関係者優先のアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-10T09:39:00Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Beyond Ads: Sequential Decision-Making Algorithms in Law and Public
Policy [2.762239258559568]
法と公共政策にシーケンシャルな意思決定アルゴリズムを採用するという約束と課題について検討する。
我々の主なテーマは、法律と公共政策が、機械学習コミュニティがまだ対応していない、異なる方法論上の課題を提起することです。
規制とガバナンスにおけるシーケンシャルな意思決定アルゴリズムの幅広い応用について論じる。
論文 参考訳(メタデータ) (2021-12-13T17:45:21Z) - Building a Foundation for Data-Driven, Interpretable, and Robust Policy
Design using the AI Economist [67.08543240320756]
AIエコノミストフレームワークは,2段階強化学習とデータ駆動型シミュレーションを用いて,効果的な,柔軟な,解釈可能なポリシー設計を可能にする。
RLを用いて訓練されたログリニア政策は、過去の結果と比較して、公衆衛生と経済の両面から社会福祉を著しく改善することがわかった。
論文 参考訳(メタデータ) (2021-08-06T01:30:41Z) - An Automatic Attribute Based Access Control Policy Extraction from
Access Logs [5.142415132534397]
属性ベースのアクセス制御(ABAC)モデルは、複雑なシステムや動的システムの認証要求に対処するための、より柔軟なアプローチを提供する。
本稿では,システムへのアクセスログからABACポリシールールを自動的に学習し,ポリシー開発プロセスを簡素化する手法を提案する。
論文 参考訳(メタデータ) (2020-03-16T15:08:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。