論文の概要: Where Assessment Validation and Responsible AI Meet
- arxiv url: http://arxiv.org/abs/2411.02577v1
- Date: Mon, 04 Nov 2024 20:20:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-06 15:00:40.292458
- Title: Where Assessment Validation and Responsible AI Meet
- Title(参考訳): 評価検証と責任AIの出会い
- Authors: Jill Burstein, Geoffrey T. LaFlair,
- Abstract要約: 本稿では,古典的テスト検証理論と評価固有のドメインに依存しないRAIの原則と実践を考察する統合評価フレームワークを提案する。
このフレームワークは、妥当性議論をサポートする評価のための責任あるAI使用、人間の価値と監視を維持するためのAI倫理との整合性、そしてAI使用に関連するより広範な社会的責任に対処する。
- 参考スコア(独自算出の注目度): 0.0876953078294908
- License:
- Abstract: Validity, reliability, and fairness are core ethical principles embedded in classical argument-based assessment validation theory. These principles are also central to the Standards for Educational and Psychological Testing (2014) which recommended best practices for early applications of artificial intelligence (AI) in high-stakes assessments for automated scoring of written and spoken responses. Responsible AI (RAI) principles and practices set forth by the AI ethics community are critical to ensure the ethical use of AI across various industry domains. Advances in generative AI have led to new policies as well as guidance about the implementation of RAI principles for assessments using AI. Building on Chapelle's foundational validity argument work to address the application of assessment validation theory for technology-based assessment, we propose a unified assessment framework that considers classical test validation theory and assessment-specific and domain-agnostic RAI principles and practice. The framework addresses responsible AI use for assessment that supports validity arguments, alignment with AI ethics to maintain human values and oversight, and broader social responsibility associated with AI use.
- Abstract(参考訳): 妥当性、信頼性、公正性は古典的議論に基づく評価検証理論に埋め込まれた中核的な倫理原理である。
また、これらの原則は2014年の教育心理学検査基準(Standards for Educational and Psychological Testing)の中心であり、人工知能(AI)の早期応用のためのベストプラクティスを、書面・音声応答の自動採点のための高い評価に推奨している。
責任あるAI(RAI)の原則と、AI倫理コミュニティが定めるプラクティスは、さまざまな業界領域におけるAIの倫理的利用を保証するために不可欠である。
生成AIの進歩は、AIを使用した評価のためのRAI原則の実装に関するガイダンスと同様に、新しいポリシーにつながった。
本稿では,従来のテスト検証理論と評価固有のドメインに依存しないRAI原則と実践を考慮した統合評価フレームワークを提案する。
このフレームワークは、妥当性議論をサポートする評価のための責任あるAI使用、人間の価値と監視を維持するためのAI倫理との整合性、そしてAI使用に関連するより広範な社会的責任に対処する。
関連論文リスト
- Ethical AI Governance: Methods for Evaluating Trustworthy AI [0.552480439325792]
信頼できる人工知能(TAI)は、人間の価値観に沿った倫理を統合する。
TAI評価は、AI開発と使用における倫理的基準と安全性を保証することを目的としている。
論文 参考訳(メタデータ) (2024-08-28T09:25:50Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Levels of AGI for Operationalizing Progress on the Path to AGI [64.59151650272477]
本稿では,人工知能(AGI)モデルとその前駆体の性能と動作を分類する枠組みを提案する。
このフレームワークは、AGIのパフォーマンス、一般性、自律性のレベルを導入し、モデルを比較し、リスクを評価し、AGIへの道筋に沿って進捗を測定する共通の言語を提供する。
論文 参考訳(メタデータ) (2023-11-04T17:44:58Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - A Framework for Ethical AI at the United Nations [0.0]
本稿では、人工知能(AI)における倫理的懸念と、それらのリスクを軽減するために必要な枠組みの概要を提供する。
これは、国連(UN)におけるAIの開発と利用が当社の倫理的価値観に合致するようにするための実用的な道筋を提案します。
論文 参考訳(メタデータ) (2021-04-09T23:44:37Z) - Enhanced well-being assessment as basis for the practical implementation
of ethical and rights-based normative principles for AI [0.0]
本稿では,自律・知能システムを対象とした健康影響評価フレームワークの実用化について述べる。
このプロセスは、AIシステムの影響を理解するための、人間中心のアルゴリズム支援アプローチを可能にする。
論文 参考訳(メタデータ) (2020-07-29T13:26:05Z) - Principles to Practices for Responsible AI: Closing the Gap [0.1749935196721634]
インパクトアセスメントフレームワークは、原則と実践のギャップを埋めるための有望なアプローチである、と我々は主張する。
我々は、森林生態系の復元におけるAIの使用に関するケーススタディをレビューし、インパクトアセスメントフレームワークが効果的で責任あるAIプラクティスにどのように変換できるかを実証する。
論文 参考訳(メタデータ) (2020-06-08T16:04:44Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。