論文の概要: Robustness of different loss functions and their impact on networks
learning capability
- arxiv url: http://arxiv.org/abs/2110.08322v1
- Date: Fri, 15 Oct 2021 19:12:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 01:53:30.552216
- Title: Robustness of different loss functions and their impact on networks
learning capability
- Title(参考訳): 異なる損失関数のロバスト性とそのネットワーク学習能力への影響
- Authors: Vishal Rajput
- Abstract要約: 我々は、最も顕著な勾配に対応する画素を変更すると、異なるモデルの精度がどれだけ早く低下するかを考察する。
2つの損失関数、二項クロスエントロピーやBCEのような一般化された損失関数と、ディース損失や焦点損失のような特殊な損失関数を用いる。
- 参考スコア(独自算出の注目度): 3.1727619150610837
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recent developments in AI have made it ubiquitous, every industry is trying
to adopt some form of intelligent processing of their data. Despite so many
advances in the field, AIs full capability is yet to be exploited by the
industry. Industries that involve some risk factors still remain cautious about
the usage of AI due to the lack of trust in such autonomous systems.
Present-day AI might be very good in a lot of things but it is very bad in
reasoning and this behavior of AI can lead to catastrophic results. Autonomous
cars crashing into a person or a drone getting stuck in a tree are a few
examples where AI decisions lead to catastrophic results. To develop insight
and generate an explanation about the learning capability of AI, we will try to
analyze the working of loss functions. For our case, we will use two sets of
loss functions, generalized loss functions like Binary cross-entropy or BCE and
specialized loss functions like Dice loss or focal loss. Through a series of
experiments, we will establish whether combining different loss functions is
better than using a single loss function and if yes, then what is the reason
behind it. In order to establish the difference between generalized loss and
specialized losses, we will train several models using the above-mentioned
losses and then compare their robustness on adversarial examples. In
particular, we will look at how fast the accuracy of different models decreases
when we change the pixels corresponding to the most salient gradients.
- Abstract(参考訳): 最近のAIの発展により、あらゆる業界が、データのインテリジェントな処理形式を採用しようとしている。
この分野における多くの進歩にもかかわらず、AIの完全な能力はまだ業界によって活用されていない。
いくつかのリスク要因を含む産業は、そのような自律システムへの信頼の欠如により、依然としてAIの使用に慎重である。
現代のAIは、多くの点で非常に良いかもしれないが、推論において非常に悪いものであり、このAIの振る舞いは破滅的な結果をもたらす可能性がある。
自動運転車が人やドローンに衝突して木に詰まってしまうのは、aiの決定が壊滅的な結果に繋がるいくつかの例だ。
そこで我々は,AIの学習能力に関する洞察を深め,その説明を生成するために,損失関数の動作を分析する。
我々の場合、二項クロスエントロピーやBCEのような一般化された損失関数と、ディース損失や焦点損失のような特殊な損失関数の2組を用いる。
一連の実験を通じて、異なる損失関数を組み合わせることが単一の損失関数を使うよりも優れているかどうか、もしそうなら、その背後にある理由は何なのかを確かめる。
一般化損失と特殊損失の差を確立するため、上記の損失を用いて複数のモデルを訓練し、その頑健さを敵の例と比較する。
特に、最も顕著な勾配に対応する画素を変更すると、異なるモデルの精度がどれだけ早く低下するかを考察する。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - The Role of Heuristics and Biases During Complex Choices with an AI
Teammate [0.0]
古典的な実験手法は、AIヘルパーによる複雑な選択を研究するには不十分である、と我々は主張する。
我々は、フレーミングとアンカー効果が、人々がAIヘルパーと一緒に働く方法に影響を与え、選択結果を予測することを示した。
論文 参考訳(メタデータ) (2023-01-14T20:06:43Z) - AutoLossGen: Automatic Loss Function Generation for Recommender Systems [40.21831408797939]
推薦システムでは、良い損失がモデル性能を大幅に改善する可能性があるため、損失関数の選択が重要である。
以前の研究の大部分は、重要な専門知識と人的努力を必要とする手作りの損失関数に焦点を当てていた。
本稿では,基本数学的演算子から直接構築された損失関数を生成する自動損失関数生成フレームワークAutoLossGenを提案する。
論文 参考訳(メタデータ) (2022-04-27T19:49:48Z) - Do Lessons from Metric Learning Generalize to Image-Caption Retrieval? [67.45267657995748]
半ハードな負のトリプルト損失は、スクラッチから最適化されたイメージキャプション検索(ICR)メソッドのデファクト選択となっている。
近年のメトリクス学習の進歩により、画像検索や表現学習といったタスクにおいて、三重項損失を上回る新たな損失関数が生まれている。
これらの結果は,2つのICR法における3つの損失関数を比較することで,ICRの設定に一般化するかどうかを問う。
論文 参考訳(メタデータ) (2022-02-14T15:18:00Z) - Does Redundancy in AI Perception Systems Help to Test for Super-Human
Automated Driving Performance? [6.445605125467575]
この研究は、実際のシステムレベルでの直接的な統計的証拠を提供することはほとんど不可能である、と再考する。
したがって、一般的に使われている戦略は、十分なサブシステムの性能の証明とともに冗長性を使うことである。
論文 参考訳(メタデータ) (2021-12-09T08:40:31Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - AI Failures: A Review of Underlying Issues [0.0]
私たちは、概念化、設計、デプロイメントの欠陥を考慮して、AIの失敗に焦点を当てています。
AIシステムは、AIシステムの設計において、欠落とコミッショニングエラーのために失敗する。
AIシステムは、事実上道徳的な判断を下すことが求められる状況で、かなり失敗する可能性が高い。
論文 参考訳(メタデータ) (2020-07-18T15:31:29Z) - Does Explainable Artificial Intelligence Improve Human Decision-Making? [17.18994675838646]
我々は、AI(制御)を使わずに客観的な人間の意思決定精度を、AI予測(説明なし)とAI予測(説明なし)とを比較して評価する。
あらゆる種類のAI予測は、ユーザの判断精度を改善する傾向がありますが、説明可能なAIが有意義な影響を与えるという決定的な証拠はありません。
我々の結果は、少なくともいくつかの状況において、説明可能なAIが提供する「なぜ」情報は、ユーザの意思決定を促進することができないことを示唆している。
論文 参考訳(メタデータ) (2020-06-19T15:46:13Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z) - On Adversarial Examples and Stealth Attacks in Artificial Intelligence
Systems [62.997667081978825]
本稿では,汎用人工知能(AI)システムに対する2種類の多元性行動の評価と分析を行うための公式な枠組みを提案する。
最初のクラスは、逆例を含み、誤分類を引き起こす入力データの小さな摂動の導入を懸念する。
第2のクラスは、ここで初めて導入され、ステルス攻撃と名付けられたもので、AIシステム自体に対する小さな摂動を伴う。
論文 参考訳(メタデータ) (2020-04-09T10:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。