論文の概要: The Right Tool for the Job: Open-Source Auditing Tools in Machine
Learning
- arxiv url: http://arxiv.org/abs/2206.10613v1
- Date: Mon, 20 Jun 2022 15:20:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-25 09:00:14.511483
- Title: The Right Tool for the Job: Open-Source Auditing Tools in Machine
Learning
- Title(参考訳): 仕事に適したツール: 機械学習におけるオープンソースの監査ツール
- Authors: Cherie M Poland
- Abstract要約: 近年,機械学習,AI倫理,アルゴリズム監査の公平性に関する議論が増えている。
多くのオープンソース監査ツールが利用可能だが、ユーザはツールや便利なもの、アクセス方法に常に気付いていない。
本稿は,これらのツールを実際に活用する緊急ニーズの強化と,それを実現するモチベーションの提供を目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, discussions about fairness in machine learning, AI ethics
and algorithm audits have increased. Many entities have developed framework
guidance to establish a baseline rubric for fairness and accountability.
However, in spite of increased discussions and multiple frameworks, algorithm
and data auditing still remain difficult to execute in practice. Many
open-source auditing tools are available, but users aren't always aware of the
tools, what they are useful for, or how to access them. Model auditing and
evaluation are not frequently emphasized skills in machine learning. There are
also legal reasons for the proactive adoption of these tools that extend beyond
the desire for greater fairness in machine learning. There are positive social
issues of public perception and goodwill that matter in our highly connected
global society. Greater awareness of these tools and the reasons for actively
utilizing them may be helpful to the entire continuum of programmers, data
scientists, engineers, researchers, users and consumers of AI and machine
learning products. It is important for everyone to better understand the input
and output differentials, how they are occurring, and what can be done to
promote FATE (fairness, accountability, transparency, and ethics) in machine-
and deep learning. The ability to freely access open-source auditing tools
removes barriers to fairness assessment at the most basic levels of machine
learning. This paper aims to reinforce the urgent need to actually use these
tools and provides motivations for doing so. The exemplary tools highlighted
herein are open-source with software or code-base repositories available that
can be used immediately by anyone worldwide.
- Abstract(参考訳): 近年,機械学習,AI倫理,アルゴリズム監査の公平性に関する議論が増えている。
多くのエンティティは、公正性と説明責任のためのベースラインルーブリックを確立するためのフレームワークガイダンスを開発した。
しかし、議論の高まりや複数のフレームワークにもかかわらず、アルゴリズムとデータ監査はいまだに実行が困難である。
多くのオープンソース監査ツールが利用可能だが、ユーザはツールや便利なもの、アクセス方法に常に気付いていない。
モデル監査と評価は機械学習のスキルとしてあまり強調されない。
また、これらのツールが積極的に採用される理由は、機械学習におけるより公正な欲求を越えている。
我々の高度に結びついたグローバル社会には、世論の認識と好意に肯定的な社会的問題がある。
これらのツールをより深く認識し、積極的に活用する理由は、プログラマ、データサイエンティスト、エンジニア、研究者、ユーザ、AIおよび機械学習製品のコンシューマーの連続体に役立ちます。
インプットとアウトプットの差分、その発生方法、そして機械学習におけるFATE(フェアネス、説明責任、透明性、倫理)を促進するためにできることをよりよく理解することが重要である。
オープンソースの監査ツールに自由にアクセスできることによって、機械学習の最も基本的なレベルで公平性評価の障壁が取り除かれる。
本稿は,これらのツールの利用を緊急に行う必要性を強調することを目的としている。
ここで強調されている模範的なツールはオープンソースで、ソフトウェアやコードベースのリポジトリがあり、誰でもすぐに使える。
関連論文リスト
- From Literature to Practice: Exploring Fairness Testing Tools for the Software Industry Adoption [5.901307724130718]
今日の世界では、AIシステムが公平で偏見のないものであることを保証する必要があります。
現在の公平性テストツールは、ソフトウェア開発者をサポートするために大幅な改善が必要である。
新しいツールは、ユーザーフレンドリで、ドキュメントがよく、さまざまな種類のデータを扱うのに十分な柔軟性を持つべきです。
論文 参考訳(メタデータ) (2024-09-04T04:23:08Z) - The Impact of Generative AI-Powered Code Generation Tools on Software Engineer Hiring: Recruiters' Experiences, Perceptions, and Strategies [4.557635080377692]
本研究では,GenAIを利用したコード生成ツールについて,採用者の経験と認識について考察する。
業界の専門家32人を対象に行った調査では、ほとんどの参加者はそのようなツールに精通しているが、ほとんどの組織は、これらのツールの使用・知識を考慮に入れた候補評価手法を調整していない。
ほとんどの参加者は、GenAIを利用したコード生成ツールをコンピュータサイエンスカリキュラムに組み込むことが重要であると考えている。
論文 参考訳(メタデータ) (2024-09-02T00:00:29Z) - Learning to Ask: When LLMs Meet Unclear Instruction [49.256630152684764]
大きな言語モデル(LLM)は、言語スキルだけでは達成不可能なタスクに対処するための外部ツールを活用することができる。
我々は、不完全な命令下でのLLMツールの使用性能を評価し、エラーパターンを分析し、Noisy ToolBenchと呼ばれる挑戦的なツール使用ベンチマークを構築した。
Ask-when-Needed (AwN) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-31T23:06:12Z) - Making Language Models Better Tool Learners with Execution Feedback [36.30542737293863]
ツールは、人間が環境を理解し、形を変えることができる重要なインターフェースとして機能する。
既存のツール学習手法は、ツールを無差別に活用するために大きな言語モデルを誘導する。
ツール実行からのフィードバックを通じてモデルを継続的に学習することを可能にする2段階のエンドツーエンドフレームワークであるTool leaRning wIth exeCution fEedback (TRICE)を提案する。
論文 参考訳(メタデータ) (2023-05-22T14:37:05Z) - LLM-based Interaction for Content Generation: A Case Study on the
Perception of Employees in an IT department [85.1523466539595]
本稿では,IT企業の従業員が生成ツールを使用する意図を明らかにするためのアンケート調査を行う。
以上の結果から, 生成ツールの比較的平均的な受容性が示唆されるが, ツールが有用であると認識されるほど, 意図が高くなることが示唆された。
分析の結果, 生産ツールの利用頻度は, 従業員が作業の文脈でこれらのツールをどのように認識しているかを理解する上で重要な要因である可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-18T15:35:43Z) - Tool Learning with Foundation Models [158.8640687353623]
基礎モデルの出現により、AIシステムは、人間としてのツールの使用に等しく適応できる可能性がある。
その大きな可能性にもかかわらず、この分野における重要な課題、機会、そして将来の取り組みに関する包括的な理解はいまだに欠けている。
論文 参考訳(メタデータ) (2023-04-17T15:16:10Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Exploring How Machine Learning Practitioners (Try To) Use Fairness
Toolkits [35.7895677378462]
業界実践者が既存の公正ツールキットでどのように機能するかについて検討する。
フェアネスツールキットが実践者のニーズに対処するいくつかの機会を特定します。
我々は、将来のオープンソースフェアネスツールキットの設計における意味を強調した。
論文 参考訳(メタデータ) (2022-05-13T23:07:46Z) - Flashlight: Enabling Innovation in Tools for Machine Learning [50.63188263773778]
私たちは、機械学習ツールやシステムの革新を促進するために構築されたオープンソースのライブラリであるFlashlightを紹介します。
Flashlightは、広く使われているライブラリを下流で活用し、機械学習とシステム研究者をより緊密に連携させる研究を可能にするツールだと考えています。
論文 参考訳(メタデータ) (2022-01-29T01:03:29Z) - AI Explainability 360: Impact and Design [120.95633114160688]
2019年、私たちはAI Explainability 360(Arya et al. 2020)を開発しました。
本稿では,いくつかのケーススタディ,統計,コミュニティフィードバックを用いて,ツールキットが与える影響について検討する。
また,ツールキットのフレキシブルな設計,使用例,利用者が利用可能な教育資料や資料についても述べる。
論文 参考訳(メタデータ) (2021-09-24T19:17:09Z) - Intuitiveness in Active Teaching [7.8029610421817654]
我々は,ユーザが積極的に教えるアルゴリズムの直感性を解析する。
我々は人間と機械の相互作用の有効性を判断する体系的な方法を提案する。
論文 参考訳(メタデータ) (2020-12-25T09:31:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。