論文の概要: Investigating the Robustness of Artificial Intelligent Algorithms with
Mixture Experiments
- arxiv url: http://arxiv.org/abs/2010.15551v1
- Date: Sat, 10 Oct 2020 15:38:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 22:45:27.903542
- Title: Investigating the Robustness of Artificial Intelligent Algorithms with
Mixture Experiments
- Title(参考訳): 混合実験による人工知能アルゴリズムのロバスト性の検討
- Authors: Jiayi Lian, Laura Freeman, Yili Hong, and Xinwei Deng
- Abstract要約: AIアルゴリズムの堅牢性は、不正確な予測によって安全上の懸念が生じ、AIシステムの採用が制限される可能性があるため、大きな関心事である。
ロバストな分類アルゴリズムは、異なるアプリケーションシナリオ下で高い精度と低い変数を持つことが期待されている。
我々は、予測性能を収集するために、総合的な混合実験を行う。
次に,様々な要因がAI分類アルゴリズムの堅牢性にどのように影響するかを統計的に分析する。
- 参考スコア(独自算出の注目度): 1.877815076482061
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligent (AI) algorithms, such as deep learning and XGboost,
are used in numerous applications including computer vision, autonomous
driving, and medical diagnostics. The robustness of these AI algorithms is of
great interest as inaccurate prediction could result in safety concerns and
limit the adoption of AI systems. In this paper, we propose a framework based
on design of experiments to systematically investigate the robustness of AI
classification algorithms. A robust classification algorithm is expected to
have high accuracy and low variability under different application scenarios.
The robustness can be affected by a wide range of factors such as the imbalance
of class labels in the training dataset, the chosen prediction algorithm, the
chosen dataset of the application, and a change of distribution in the training
and test datasets. To investigate the robustness of AI classification
algorithms, we conduct a comprehensive set of mixture experiments to collect
prediction performance results. Then statistical analyses are conducted to
understand how various factors affect the robustness of AI classification
algorithms. We summarize our findings and provide suggestions to practitioners
in AI applications.
- Abstract(参考訳): ディープラーニングやXGboostといった人工知能(AI)アルゴリズムは、コンピュータビジョン、自律運転、医療診断などの多くのアプリケーションで使用されている。
これらのAIアルゴリズムの堅牢性は、不正確な予測が安全上の懸念をもたらし、AIシステムの採用を制限する可能性があるため、非常に興味深い。
本稿では,AI分類アルゴリズムのロバスト性を体系的に研究するための実験設計に基づくフレームワークを提案する。
ロバストな分類アルゴリズムは、異なるアプリケーションシナリオにおいて高い精度と低い変動性を持つことが期待されている。
堅牢性は、トレーニングデータセットにおけるクラスラベルの不均衡、選択された予測アルゴリズム、アプリケーションの選択されたデータセット、トレーニングデータセットとテストデータセットにおける分散の変化など、幅広い要因に影響される可能性がある。
そこで我々は,AI分類アルゴリズムの堅牢性を検討するために,総合的な混合実験を行い,予測結果の収集を行う。
次に,様々な要因がAI分類アルゴリズムの堅牢性に与える影響を統計的に分析する。
当社の調査結果を要約し、AIアプリケーションの実践者に提案する。
関連論文リスト
- Enhancing Feature Selection and Interpretability in AI Regression Tasks Through Feature Attribution [38.53065398127086]
本研究では、回帰問題に対する入力データの非形式的特徴をフィルタリングする特徴属性法の可能性について検討する。
我々は、初期データ空間から最適な変数セットを選択するために、統合グラディエントとk平均クラスタリングを組み合わせた機能選択パイプラインを導入する。
提案手法の有効性を検証するため, ターボ機械の開発過程における羽根振動解析を実世界の産業問題に適用した。
論文 参考訳(メタデータ) (2024-09-25T09:50:51Z) - Multi-Dimensional Ability Diagnosis for Machine Learning Algorithms [88.93372675846123]
本稿では,機械学習アルゴリズム評価のためのタスク非依存評価フレームワークCamillaを提案する。
認識診断の仮定とニューラルネットワークを用いて、各サンプルのアルゴリズム、サンプル、スキル間の複雑な相互作用を学習する。
我々の実験では、カミラはメートル法信頼性、ランクの整合性、ランクの安定性で最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2023-07-14T03:15:56Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Do-AIQ: A Design-of-Experiment Approach to Quality Evaluation of AI
Mislabel Detection Algorithm [0.0]
人工知能(AI)アルゴリズムの品質は、サイバーセキュリティ、ヘルスケア、自動運転など、さまざまなアプリケーションにアルゴリズムを確実に採用する上で非常に重要である。
この研究は、Do-AIQという名前のAIアルゴリズムの品質を体系的に評価するために、実験的な設計手法を用いるという原則的な枠組みを提示している。
論文 参考訳(メタデータ) (2022-08-21T19:47:41Z) - Correntropy-Based Logistic Regression with Automatic Relevance
Determination for Robust Sparse Brain Activity Decoding [18.327196310636864]
相関学習フレームワークを,自動関係決定に基づくスパース分類モデルに導入する。
人工的データセット,脳波(EEG)データセット,機能的磁気共鳴画像(fMRI)データセットで評価した。
論文 参考訳(メタデータ) (2022-07-20T06:49:23Z) - Towards Diverse Evaluation of Class Incremental Learning: A Representation Learning Perspective [67.45111837188685]
クラスインクリメンタル学習(CIL)アルゴリズムは、インクリメンタルに到着したデータから新しいオブジェクトクラスを継続的に学習することを目的としている。
表現学習における様々な評価プロトコルを用いて,CILアルゴリズムによって訓練されたニューラルネットワークモデルを実験的に解析する。
論文 参考訳(メタデータ) (2022-06-16T11:44:11Z) - RL-EA: A Reinforcement Learning-Based Evolutionary Algorithm Framework
for Electromagnetic Detection Satellite Scheduling Problem [6.438148195340613]
本稿では、EDSSP問題に対する混合整数プログラミングモデルと強化学習(RL-EA)に基づく進化的アルゴリズムフレームワークを提案する。
提案アルゴリズムの計画効果を検討するために,様々なスケール実験を行った。
論文 参考訳(メタデータ) (2022-06-12T08:53:56Z) - Robustification of Online Graph Exploration Methods [59.50307752165016]
我々は、古典的で有名なオンライングラフ探索問題の学習強化版について研究する。
本稿では,予測をよく知られたNearest Neighbor(NN)アルゴリズムに自然に統合するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-10T10:02:31Z) - FairCVtest Demo: Understanding Bias in Multimodal Learning with a
Testbed in Fair Automatic Recruitment [79.23531577235887]
このデモは、非構造化データから機密情報を抽出する採用ツールの背後にある人工知能(AI)の能力を示しています。
また、このデモには差別認識学習のための新しいアルゴリズムが含まれており、マルチモーダルAIフレームワークの機密情報を排除している。
論文 参考訳(メタデータ) (2020-09-12T17:45:09Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。