論文の概要: Explaining decisions made with AI: A workbook (Use case 1: AI-assisted
recruitment tool)
- arxiv url: http://arxiv.org/abs/2104.03906v1
- Date: Sat, 20 Mar 2021 17:03:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 08:25:32.615082
- Title: Explaining decisions made with AI: A workbook (Use case 1: AI-assisted
recruitment tool)
- Title(参考訳): AIによる意思決定の説明:ワークブック(ユースケース1:AI支援採用ツール)
- Authors: David Leslie and Morgan Briggs
- Abstract要約: Alan Turing Institute(アラン・チューリング研究所)と情報コミッショナーズ・オフィス(情報コミッショナーズ・オフィス)が協力して、説明可能なAIを取り巻く困難な問題に取り組んでいる。
この共同作業の最終的な成果である、2020年5月に公開されたAIによる説明的決定は、これまででもっとも包括的なAI説明の実践的ガイダンスである。
ワークブックの目標は、AIによる意思決定の説明からいくつかの主要なテーマを要約し、ワークショップのエクササイズのための材料を提供することだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over the last two years, The Alan Turing Institute and the Information
Commissioner's Office (ICO) have been working together to discover ways to
tackle the difficult issues surrounding explainable AI. The ultimate product of
this joint endeavour, Explaining decisions made with AI, published in May 2020,
is the most comprehensive practical guidance on AI explanation produced
anywhere to date. We have put together this workbook to help support the uptake
of that guidance. The goal of the workbook is to summarise some of main themes
from Explaining decisions made with AI and then to provide the materials for a
workshop exercise that has been built around a use case created to help you
gain a flavour of how to put the guidance into practice. In the first three
sections, we run through the basics of Explaining decisions made with AI. We
provide a precis of the four principles of AI explainability, the typology of
AI explanations, and the tasks involved in the explanation-aware design,
development, and use of AI/ML systems. We then provide some reflection
questions, which are intended to be a launching pad for group discussion, and a
starting point for the case-study-based exercise that we have included as
Appendix B. In Appendix A, we go into more detailed suggestions about how to
organise the workshop. These recommendations are based on two workshops we had
the privilege of co-hosting with our colleagues from the ICO and Manchester
Metropolitan University in January 2021. The participants of these workshops
came from both the private and public sectors, and we are extremely grateful to
them for their energy, enthusiasm, and tremendous insight. This workbook would
simply not exist without the commitment and keenness of all our collaborators
and workshop participants.
- Abstract(参考訳): 過去2年間、アランチューリング研究所と情報コミッショナー事務所(ICO)は協力して、説明可能なAIを取り巻く困難な問題に対処する方法を見つけてきた。
この共同作業の最終的な成果である、2020年5月に公開されたAIによる説明的決定は、これまででもっとも包括的なAI説明の実践的ガイダンスである。
私たちはそのガイダンスの獲得を支援するためにこのワークブックをまとめました。
このワークブックの目的は、aiによる意思決定から得られた主要なテーマを要約し、そのガイダンスの実践方法のフレーバーを得るために作成されたユースケースを中心に構築されたワークショップの材料を提供することである。
最初の3つのセクションでは、AIでなされた決定を説明するための基礎を説明します。
我々は、ai説明可能性の4つの原則、ai説明の類型論、およびai/mlシステムの説明認識設計、開発、および使用に関わるタスクの概説を提供する。
次に、グループディスカッションの出発点となるリフレクション質問と、Appendix Bとして含めたケーススタディベースのエクササイズの出発点を紹介します。
これらの推奨は、2021年1月にicoとマンチェスターメトロポリタン大学の同僚と共同でホストする特権を持つ2つのワークショップに基づいています。
これらのワークショップの参加者は、民間部門と公共部門の両方から来ており、彼らのエネルギー、熱意、そして素晴らしい洞察に非常に感謝しています。
このワークブックは、すべての協力者やワークショップ参加者のコミットメントと熱意なしには存在しません。
関連論文リスト
- The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Training Towards Critical Use: Learning to Situate AI Predictions
Relative to Human Knowledge [22.21959942886099]
我々は、人間がAIモデルでは利用できない知識に対してAI予測をシチュレートする能力を集中させる「クリティカルユース」と呼ばれるプロセス指向の適切な依存の概念を紹介します。
我々は、児童虐待スクリーニングという複雑な社会的意思決定環境でランダム化オンライン実験を行う。
参加者にAIによる意思決定を実践する、迅速で低い機会を提供することによって、初心者は、経験豊富な労働者に類似したAIとの不一致のパターンを示すようになった。
論文 参考訳(メタデータ) (2023-08-30T01:54:31Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Toward Ethical AIED [0.0]
本稿では,人工知能教育における倫理 : 実践,課題,議論 (2022年8月, ルーサージュ) の編集要旨を概説する。
本書の重要コントリビューションのハイライトに加えて、AIED(AIED)の分野における重要な疑問と大きな課題についても論じている。
この本は、AIEDの重要な倫理的問題において、幅広い視点を達成する方法として、AIEDの外と内からのさまざまな視点を提示している。
論文 参考訳(メタデータ) (2022-03-11T13:26:54Z) - On some Foundational Aspects of Human-Centered Artificial Intelligence [52.03866242565846]
人間中心人工知能(Human Centered Artificial Intelligence)の意味については明確な定義はない。
本稿では,AIコンポーネントを備えた物理・ソフトウェア計算エージェントを指すHCAIエージェントについて紹介する。
HCAIエージェントの概念は、そのコンポーネントや機能とともに、人間中心のAIに関する技術的および非技術的議論を橋渡しする手段であると考えています。
論文 参考訳(メタデータ) (2021-12-29T09:58:59Z) - Artificial Intelligence Ethics and Safety: practical tools for creating
"good" models [0.0]
AI Robotics Ethics Society(AIRES)は、2018年にアーロン・ヒューイによって設立された非営利団体である。
AIRESは現在UCLA(ロサンゼルス)、USC(南カリフォルニア大学)、カリフォルニア工科大学(カリフォルニア工科大学)、スタンフォード大学、コーネル大学、ブラウン大学、リオグランデ・ド・スルのポンティフィカル・カトリック大学(ブラジル)などの大学に支部を置いている。
論文 参考訳(メタデータ) (2021-12-14T19:10:05Z) - Demystifying Ten Big Ideas and Rules Every Fire Scientist & Engineer
Should Know About Blackbox, Whitebox & Causal Artificial Intelligence [2.4366811507669124]
この手紙は、ファイア・テクノロジーが後援するスマート・システム・イン・ファイア・エンジニアリング(Smart Systems in Fire Engineering)の特別号に付属している。
第1節では、AIに関する大きなアイデアを概説し、私たちの領域でAIを採用するメリットについて、燃える疑問のいくつかに答える。
第2のセクションでは、AIユーザが調査方法論としてAIを使用する場合の実践に役立つとみなすための、一連のルールや技術的レコメンデーションが提示されている。
論文 参考訳(メタデータ) (2021-11-23T17:46:28Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - Becoming Good at AI for Good [21.58081555662445]
この種のコラボレーションのさまざまな側面を、高レベルな4つのカテゴリに分けて説明します。
本報告では,これらの事例について,実際にどのように適用されたかを示す2つのケーススタディについて概説する。
論文 参考訳(メタデータ) (2021-04-23T18:00:21Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。