論文の概要: Artificial Intelligence in Environmental Protection: The Importance of Organizational Context from a Field Study in Wisconsin
- arxiv url: http://arxiv.org/abs/2501.04902v1
- Date: Thu, 09 Jan 2025 01:27:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-10 13:59:37.790000
- Title: Artificial Intelligence in Environmental Protection: The Importance of Organizational Context from a Field Study in Wisconsin
- Title(参考訳): 環境保護における人工知能 : ウィスコンシン州のフィールドスタディからの組織的文脈の重要性
- Authors: Nicolas Rothbacher, Kit T. Rodolfa, Mihir Bhaskar, Erin Maneri, Christine Tsang, Daniel E. Ho,
- Abstract要約: 農業廃棄物の投棄を検出するための衛星画像ベースのAIツールのユニークなケーススタディの結果を報告する。
この道具は2023年2月から3月にかけて投棄が禁止された際に現場調査に使用された。
AIツールは環境保護資源の割り当てを優先することを約束するが、既存の法律の重要なギャップを露呈する可能性がある。
- 参考スコア(独自算出の注目度): 3.529400240074136
- License:
- Abstract: Advances in Artificial Intelligence (AI) have generated widespread enthusiasm for the potential of AI to support our understanding and protection of the environment. As such tools move from basic research to more consequential settings, such as regulatory enforcement, the human context of how AI is utilized, interpreted, and deployed becomes increasingly critical. Yet little work has systematically examined the role of such organizational goals and incentives in deploying AI systems. We report results from a unique case study of a satellite imagery-based AI tool to detect dumping of agricultural waste, with concurrent field trials with the Wisconsin Department of Natural Resources (WDNR) and a non-governmental environmental interest group in which the tool was utilized for field investigations when dumping was presumptively illegal in February-March 2023. Our results are threefold: First, both organizations confirmed a similar level of ground-truth accuracy for the model's detections. Second, they differed, however, in their overall assessment of its usefulness, as WDNR was interested in clear violations of existing law, while the interest group sought to document environmental risk beyond the scope of existing regulation. Dumping by an unpermitted entity or just before February 1, for instance, were deemed irrelevant by WDNR. Third, while AI tools promise to prioritize allocation of environmental protection resources, they may expose important gaps of existing law.
- Abstract(参考訳): 人工知能(AI)の進歩は、環境の理解と保護を支援するAIの可能性に対する幅広い熱意を生み出している。
このようなツールは、基本的な研究から、規制執行など、より簡潔な設定へと移行するにつれて、AIの利用方法、解釈、デプロイに関する人間のコンテキストがますます重要になる。
しかし、AIシステムの展開におけるそのような組織的目標とインセンティブの役割を体系的に検討する研究はほとんどない。
2023年2月から3月にかけては, 農業廃棄物の投棄を検出するための衛星画像ベースAIツールをウィスコンシン州天然資源省(WDNR)と非政府環境利害団体と共同で実施し, 投棄が違法であった場合に, 現場調査に利用した事例を報告する。
まず、どちらの組織も、モデルの検出に対して、同じレベルの地道的正確性を確認しました。
第二に、WDNRは既存の法律の明確な違反に関心を持ち、利害団体は既存の規制の範囲を超えて環境リスクを文書化しようとした。
例えば、2月1日直前の無許可の団体によるダンピングは、WDNRによって無関係とみなされた。
第3に、AIツールは環境保護リソースの割り当てを優先することを約束する一方で、既存の法律の重要なギャップを露呈する可能性がある。
関連論文リスト
- Developing an Ontology for AI Act Fundamental Rights Impact Assessments [0.0]
最近発表されたEU人工知能法(AI Act)は、AI技術の使用を規制している。
その新しい要件の1つは、基本的人権影響評価(FRIA)を実施する義務である。
セマンティックWeb標準に基づくオントロジーとしてFRIAの新たな表現を提案する。
論文 参考訳(メタデータ) (2024-12-20T00:37:33Z) - Towards an Environmental Ethics of Artificial Intelligence [0.0]
本稿では,AIシステムの設計における人工知能(AI)の環境影響の倫理的意義について考察する。
環境正義文学は3つのカテゴリーの正義を区別し、不公平な3つの要素を参照する。
このような正義感に基づいて、環境に配慮したAIシステムを開発するための基準を概説する。
論文 参考訳(メタデータ) (2024-12-19T17:48:54Z) - The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Responsible AI for Earth Observation [10.380878519901998]
私たちはAIとEOの交差点を体系的に定義し、責任あるAIプラクティスに重点を置いています。
学術と産業の両面からこの探究を導く重要な要素をいくつか挙げる。
本稿は、今後の研究成果に価値ある洞察を提供するとともに、今後の可能性と新たなトレンドを探求する。
論文 参考訳(メタデータ) (2024-05-31T14:47:27Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Missing Value Chain in Generative AI Governance China as an example [0.0]
中国は2023年8月に第1次人工知能サービス臨時行政措置を施行した。
測定は、生成AIの価値連鎖における異なる役割に関する明確な区別を提示する。
AIバリューチェーン内の異なるプレイヤー間の区別と明確な法的地位の欠如は、重大な結果をもたらす可能性がある。
論文 参考訳(メタデータ) (2024-01-05T13:28:25Z) - Sustainable AI Regulation [3.0821115746307663]
ICT部門は温室効果ガス排出量の3.9%を占める。
AIの炭素フットプリント水消費量、特にGPT-4のような大規模生成モデルは、持続可能性に関する重大な懸念を提起している。
この論文は、持続可能なAI規制を実現するための多面的アプローチを提案する。
論文 参考訳(メタデータ) (2023-06-01T02:20:48Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。