論文の概要: Responsible AI Challenges in End-to-end Machine Learning
- arxiv url: http://arxiv.org/abs/2101.05967v1
- Date: Fri, 15 Jan 2021 04:55:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-28 22:19:36.252495
- Title: Responsible AI Challenges in End-to-end Machine Learning
- Title(参考訳): エンドツーエンド機械学習における責任あるAIチャレンジ
- Authors: Steven Euijong Whang, Ki Hyun Tae, Yuji Roh, Geon Heo
- Abstract要約: aiを一般公開する企業の多くは、モデルをトレーニングする場合、その正確性を改善するだけでなく、モデルがユーザを差別しないことを保証する必要がある、と述べている。
進歩を測る3つの重要な研究方向を提案し、現在進行中の研究を紹介します。
まず、責任あるAIを深くサポートし、公正性と堅牢性といった複数の目的を一緒に扱う必要があります。
第二に、責任あるAIは、機械学習のすべてのステップで広くサポートされなければならない。
- 参考スコア(独自算出の注目度): 4.509599899042536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Responsible AI is becoming critical as AI is widely used in our everyday
lives. Many companies that deploy AI publicly state that when training a model,
we not only need to improve its accuracy, but also need to guarantee that the
model does not discriminate against users (fairness), is resilient to noisy or
poisoned data (robustness), is explainable, and more. In addition, these
objectives are not only relevant to model training, but to all steps of
end-to-end machine learning, which include data collection, data cleaning and
validation, model training, model evaluation, and model management and serving.
Finally, responsible AI is conceptually challenging, and supporting all the
objectives must be as easy as possible. We thus propose three key research
directions towards this vision - depth, breadth, and usability - to measure
progress and introduce our ongoing research. First, responsible AI must be
deeply supported where multiple objectives like fairness and robust must be
handled together. To this end, we propose FR-Train, a holistic framework for
fair and robust model training in the presence of data bias and poisoning.
Second, responsible AI must be broadly supported, preferably in all steps of
machine learning. Currently we focus on the data pre-processing steps and
propose Slice Tuner, a selective data acquisition framework for training fair
and accurate models, and MLClean, a data cleaning framework that also improves
fairness and robustness. Finally, responsible AI must be usable where the
techniques must be easy to deploy and actionable. We propose FairBatch, a batch
selection approach for fairness that is effective and simple to use, and Slice
Finder, a model evaluation tool that automatically finds problematic slices. We
believe we scratched the surface of responsible AI for end-to-end machine
learning and suggest research challenges moving forward.
- Abstract(参考訳): AIは私たちの日常生活で広く使われているので、責任あるAIは批判的になっています。
AIを公に展開する企業の多くは、モデルをトレーニングする場合、その正確性を向上するだけでなく、モデルがユーザ(フェアネス)を差別しないこと、ノイズや有毒なデータ(ロバストネス)に耐性があることを保証する必要がある、と説明している。
さらに、これらの目的はモデルトレーニングだけでなく、データ収集、データクリーニングとバリデーション、モデルトレーニング、モデル評価、モデル管理とサービスを含む、エンドツーエンドの機械学習のすべてのステップにも関係している。
最後に、責任あるAIは概念的に挑戦的であり、すべての目的をサポートすることは可能な限り簡単でなければならない。
そこで我々は,このビジョンに向けた3つの重要な研究方向 – 深さ,幅,ユーザビリティ – を提案し,進捗を計測し,現在進行中の研究を紹介する。
第一に、責任あるAIは、公平さや堅牢さといった複数の目標を一緒に扱わなければならないように、深くサポートされなければならない。
そこで本研究では,データバイアスと中毒の存在下で,公平かつロバストなモデルトレーニングのための総合的なフレームワークfr-trainを提案する。
第2に、責任あるAIは、機械学習のあらゆるステップにおいて、広くサポートされなければならない。
現在,データの事前処理ステップに注目し,公平かつ正確なモデルをトレーニングするための選択的データ取得フレームワークであるslice tunerと,公平性と堅牢性も向上したデータクリーニングフレームワークであるmlcleanを提案する。
最後に、責任あるAIは、デプロイが簡単で実行可能でなければならない。
本稿では,フェアネスのためのバッチ選択手法であるfairbatchと,問題のあるスライスを自動的に発見するモデル評価ツールであるslice finderを提案する。
私たちは、エンドツーエンドの機械学習のために責任あるAIの表面をひっかいたと信じており、今後の研究課題を提案する。
関連論文リスト
- So You Think You Can Scale Up Autonomous Robot Data Collection? [22.7035324720716]
強化学習(RL)には、自律的なデータ収集を可能にするという約束がある。
環境設計と計測に要する多大な労力のために、現実世界でのスケーリングは依然として困難である。
イミテーション・ラーニング (IL) の手法は環境設計の努力をほとんど必要とせず、人的監督を必要とする。
論文 参考訳(メタデータ) (2024-11-04T05:31:35Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Machine Unlearning of Pre-trained Large Language Models [17.40601262379265]
本研究では,大規模言語モデル(LLM)の文脈における「忘れられる権利」の概念について検討する。
我々は、事前学習されたモデルに焦点をあてて、機械学習を重要なソリューションとして探求する。
論文 参考訳(メタデータ) (2024-02-23T07:43:26Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - Performance, Opaqueness, Consequences, and Assumptions: Simple questions
for responsible planning of machine learning solutions [5.802346990263708]
我々は,AIソリューションの計画を支援するための,迅速かつシンプルなフレームワークを提案する。
POCAフレームワークは、パフォーマンス、不透明性、コンシークエンス、そして見積もりの4つの柱に基づいている。
論文 参考訳(メタデータ) (2022-08-21T21:24:42Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - INTERN: A New Learning Paradigm Towards General Vision [117.3343347061931]
我々はInterNという新しい学習パラダイムを開発した。
複数の段階の複数のソースからの監視信号を用いて学習することにより、トレーニング対象のモデルは強力な一般化性を生み出す。
ほとんどの場合、ターゲットドメインのトレーニングデータの10%しか適応していないモデルが、完全なデータセットでトレーニングされたトレーニングデータよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T18:42:50Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - Goal-Aware Prediction: Learning to Model What Matters [105.43098326577434]
学習した前進力学モデルを使用する際の根本的な課題の1つは、学習したモデルの目的と下流のプランナーやポリシーの目標とのミスマッチである。
本稿では,タスク関連情報への直接的予測を提案し,そのモデルが現在のタスクを認識し,状態空間の関連量のみをモデル化することを奨励する。
提案手法は,目標条件付きシーンの関連部分を効果的にモデル化し,その結果,標準タスク非依存のダイナミックスモデルやモデルレス強化学習より優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T16:42:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。