論文の概要: AI Language Models Could Both Help and Harm Equity in Marine
Policymaking: The Case Study of the BBNJ Question-Answering Bot
- arxiv url: http://arxiv.org/abs/2403.01755v1
- Date: Mon, 4 Mar 2024 06:21:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 19:54:41.859947
- Title: AI Language Models Could Both Help and Harm Equity in Marine
Policymaking: The Case Study of the BBNJ Question-Answering Bot
- Title(参考訳): 海洋政策立案におけるAI言語モデルとハームエクイティの両立:BBNJ質問応答ボットを事例として
- Authors: Matt Ziegler, Sarah Lothian, Brian O'Neill, Richard Anderson,
Yoshitaka Ota
- Abstract要約: ChatGPTのような大規模言語モデル(LLM)は、ポリシー作成プロセスのいくつかの側面を再形成するように設定されている。
LLMが政策交渉において意思決定者の間でよりバランスのとれた足場を促進するのに使えることを慎重に期待している」と述べた。
しかし、このリスクは特に環境政策や海洋政策に関係している。
- 参考スコア(独自算出の注目度): 3.643615070316831
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI Large Language Models (LLMs) like ChatGPT are set to reshape some aspects
of policymaking processes. Policy practitioners are already using ChatGPT for
help with a variety of tasks: from drafting statements, submissions, and
presentations, to conducting background research. We are cautiously hopeful
that LLMs could be used to promote a marginally more balanced footing among
decision makers in policy negotiations by assisting with certain tedious work,
particularly benefiting developing countries who face capacity constraints that
put them at a disadvantage in negotiations. However, the risks are particularly
concerning for environmental and marine policy uses, due to the urgency of
crises like climate change, high uncertainty, and trans-boundary impact.
To explore the realistic potentials, limitations, and equity risks for LLMs
in marine policymaking, we present a case study of an AI chatbot for the
recently adopted Biodiversity Beyond National Jurisdiction Agreement (BBNJ),
and critique its answers to key policy questions. Our case study demonstrates
the dangers of LLMs in marine policymaking via their potential bias towards
generating text that favors the perspectives of mainly Western economic centers
of power, while neglecting developing countries' viewpoints. We describe
several ways these biases can enter the system, including: (1) biases in the
underlying foundational language models; (2) biases arising from the chatbot's
connection to UN negotiation documents, and (3) biases arising from the
application design. We urge caution in the use of generative AI in ocean policy
processes and call for more research on its equity and fairness implications.
Our work also underscores the need for developing countries' policymakers to
develop the technical capacity to engage with AI on their own terms.
- Abstract(参考訳): chatgptのような大規模な言語モデル(llm)は、ポリシー作成プロセスのいくつかの側面を再構築する。
政策実践者は、すでにChatGPTを使用して、声明の起草、提出、プレゼンテーション、バックグラウンドリサーチの実行など、さまざまなタスクを支援しています。
我々は、llmが特定の退屈な作業、特に交渉で不利な能力制約に直面する発展途上国の利益を援助することにより、政策交渉における意思決定者間の相対的にバランスのとれた基盤を促進するために使用できることを慎重に期待している。
しかし、気候変動や高い不確実性、国境を越えた影響といった危機の緊急性のために、環境および海洋政策の用途には特にリスクが関係している。
海洋政策立案におけるLLMの現実的な可能性、限界、および株式リスクを探るため、最近採用されたBBNJ(Biodiversity Beyond National Jurisdiction Agreement)のためのAIチャットボットの事例研究を行い、主要な政策問題に対する回答を批判する。
本ケーススタディでは、発展途上国の視点を無視しつつ、主に西欧の経済中心の視点を好むテキストを生成する潜在的なバイアスを通して、海洋政策立案におけるllmの危険性を実証する。
本稿では,(1)基礎言語モデルにおけるバイアス,(2)チャットボットと国連交渉文書とのつながりから生じるバイアス,(3)アプリケーション設計から生じるバイアスなど,これらのバイアスがシステムに入る方法について述べる。
我々は、海洋政策プロセスにおける生成AIの利用に注意を喚起し、その公平性と公正性に関するさらなる研究を求める。
我々の研究はまた、開発途上国の政策立案者が独自の条件でaiと関わる技術的能力を開発する必要性を強調している。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Assessing the State of AI Policy [0.5156484100374057]
この研究は、国際、米国、市、および連邦レベルでのAI法と指令の概要を提供する。
また、関連するビジネス標準や技術社会のイニシアチブも見直している。
論文 参考訳(メタデータ) (2024-07-31T16:09:25Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - The Role of Large Language Models in the Recognition of Territorial
Sovereignty: An Analysis of the Construction of Legitimacy [67.44950222243865]
Google MapsやLarge Language Models (LLM)のような技術ツールは、しばしば公平で客観的であると見なされる。
我々は、クリミア、ウェストバンク、トランスニトリアの3つの論争領域の事例を、ウィキペディアの情報と国連の決議に対するChatGPTの反応を比較して強調する。
論文 参考訳(メタデータ) (2023-03-17T08:46:49Z) - Envisioning a Human-AI collaborative system to transform policies into
decision models [7.9231719294492065]
我々は、人力で読み取り可能なポリシールールと機械で実行可能なポリシールールの両方をスケールする上で、政府機関や政策専門家を支援するAIの巨大な可能性を探る。
我々は、ポリシー文書から、AI、NLP、知識グラフを用いた実行可能、解釈可能、標準化された決定モデルへのルートを短くするための、初期的アプローチを提案する。
オープンドメインの課題は数多くありますが、このポジションペーパーでは、人力で読み取り可能なポリシルールとマシン実行可能なポリシルールの両方をスケールする上で、政府機関や政策専門家を支援するAIの巨大な可能性について検討します。
論文 参考訳(メタデータ) (2022-11-01T18:29:48Z) - Aligning Artificial Intelligence with Humans through Public Policy [0.0]
このエッセイは、下流のタスクに活用可能なポリシーデータの構造を学ぶAIの研究の概要を概説する。
これはAIとポリシーの"理解"フェーズを表していると私たちは考えていますが、AIを整合させるために人的価値の重要な源としてポリシーを活用するには、"理解"ポリシーが必要です。
論文 参考訳(メタデータ) (2022-06-25T21:31:14Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Turbulence on the Global Economy influenced by Artificial Intelligence
and Foreign Policy Inefficiencies [8.00696326952901]
本稿では,人工知能と国際政策実践への影響の橋渡しを探究する。
本稿では,AIに基づく外交政策と実施の重要事項について論じる。
論文 参考訳(メタデータ) (2020-06-19T10:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。