論文の概要: To what extent should we trust AI models when they extrapolate?
- arxiv url: http://arxiv.org/abs/2201.11260v1
- Date: Thu, 27 Jan 2022 01:27:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 14:01:20.190067
- Title: To what extent should we trust AI models when they extrapolate?
- Title(参考訳): エクスポーレーション時に、どの程度AIモデルを信頼すべきなのか?
- Authors: Roozbeh Yousefzadeh and Xuenan Cao
- Abstract要約: モデルは頻繁に外挿され、外挿の程度は様々であり、社会的に連続的であることを示す。
本稿では,AIの社会的応用について検討し,モデルが不注意に外挿する方法を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many applications affecting human lives rely on models that have come to be
known under the umbrella of machine learning and artificial intelligence. These
AI models are usually complicated mathematical functions that map from an input
space to an output space. Stakeholders are interested to know the rationales
behind models' decisions and functional behavior. We study this functional
behavior in relation to the data used to create the models. On this topic,
scholars have often assumed that models do not extrapolate, i.e., they learn
from their training samples and process new input by interpolation. This
assumption is questionable: we show that models extrapolate frequently; the
extent of extrapolation varies and can be socially consequential. We
demonstrate that extrapolation happens for a substantial portion of datasets
more than one would consider reasonable. How can we trust models if we do not
know whether they are extrapolating? Given a model trained to recommend
clinical procedures for patients, can we trust the recommendation when the
model considers a patient older or younger than all the samples in the training
set? If the training set is mostly Whites, to what extent can we trust its
recommendations about Black and Hispanic patients? Which dimension (race,
gender, or age) does extrapolation happen? Even if a model is trained on people
of all races, it still may extrapolate in significant ways related to race. The
leading question is, to what extent can we trust AI models when they process
inputs that fall outside their training set? This paper investigates several
social applications of AI, showing how models extrapolate without notice. We
also look at different sub-spaces of extrapolation for specific individuals
subject to AI models and report how these extrapolations can be interpreted,
not mathematically, but from a humanistic point of view.
- Abstract(参考訳): 人間の生活に影響を与える多くのアプリケーションは、機械学習と人工知能の傘の下で知られるようになったモデルに依存している。
これらのAIモデルは、通常、入力空間から出力空間にマッピングする複雑な数学的関数である。
利害関係者は、モデルの意思決定と機能的行動の背後にある理論的根拠を知りたがっている。
モデル作成に使用するデータに関連して,この機能挙動について検討する。
この話題について、学者はしばしばモデルを外挿しない、すなわち訓練サンプルから学習し、補間によって新しい入力を処理すると仮定している。
この仮定は疑わしい: モデルは頻繁に外挿することを示し、外挿の程度は異なり、社会的に連続的である。
我々は、1つ以上のデータセットのかなりの部分で外挿が合理的と考えられることを実証する。
モデルが外挿しているかどうかを知らなければ、どうやってモデルを信じられるのか?
患者に対して臨床手順を推奨するモデルを考えると、トレーニングセットのすべてのサンプルより高齢または若年者を考慮した場合、推奨を信頼できるだろうか?
トレーニングセットが大半が白人であれば、ブラックとヒスパニックの患者の推奨事項をどの程度信頼できるだろうか?
どの次元(人種、性別、年齢)が外挿されるのか?
たとえモデルが全ての人種の人々に訓練されたとしても、レースに関連する重要な方法で外挿される可能性がある。
最大の疑問は、トレーニングセット外にある入力を処理する場合、AIモデルをどの程度信頼できるのか、ということです。
本稿では,AIの社会的応用について検討し,モデルが不注意に外挿する方法を示す。
また、AIモデルに属する特定の個人に対する外挿の異なる部分空間を調べ、これらの外挿がどのように解釈できるかを数学的ではなく人文論的観点から報告する。
関連論文リスト
- How Aligned are Generative Models to Humans in High-Stakes Decision-Making? [10.225573060836478]
大規模生成モデル(LM)は、高い意思決定のためにますます検討されている。
この研究は、リシビズム予測の特定のケースにおいて、そのようなモデルが人間や予測AIモデルとどのように比較されるかを検討する。
論文 参考訳(メタデータ) (2024-10-20T19:00:59Z) - Ask Your Distribution Shift if Pre-Training is Right for You [74.18516460467019]
実際に、事前訓練されたモデルの微調整は、いくつかのケースではロバスト性を大幅に改善するが、他のケースではまったく改善しない。
分散シフト中のモデルの2つの障害モード – トレーニングデータの補間不足とバイアス – に注目する。
我々の研究は、親指の規則として、事前学習は、粗悪な外挿を緩和するがデータセットのバイアスを緩和する助けとなることを示唆している。
論文 参考訳(メタデータ) (2024-02-29T23:46:28Z) - Position: Stop Making Unscientific AGI Performance Claims [6.343515088115924]
人工知能(AI)分野の発展は、人工知能(AGI)の「スパーク」を観察するための「完璧な嵐」を生み出した。
我々は、モデルの潜在空間における有意義なパターンの発見は、AGIを支持する証拠とは見なされないことを議論し、実証的に実証した。
我々は、モデル表現と興味のある変数の間の相関が、モデルが根底にある「真実」の関係について理解していることから「原因」であるとの誤解に対して、AIの方法論的設定と一般的な公開イメージの両方が理想的であると結論付けている。
論文 参考訳(メタデータ) (2024-02-06T12:42:21Z) - Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - Scaling Laws Do Not Scale [54.72120385955072]
最近の研究によると、データセットのサイズが大きくなると、そのデータセットでトレーニングされたモデルのパフォーマンスが向上する。
このスケーリング法則の関係は、モデルのアウトプットの質を異なる集団がどのように認識するかと一致しないパフォーマンスを測定するために使われる指標に依存する、と我々は主張する。
異なるコミュニティは、互いに緊張関係にある価値を持ち、モデル評価に使用されるメトリクスについて、困難で、潜在的に不可能な選択をもたらす可能性がある。
論文 参考訳(メタデータ) (2023-07-05T15:32:21Z) - Less Likely Brainstorming: Using Language Models to Generate Alternative
Hypotheses [45.720065723998225]
我々は、人間が関連性があると思われるが、起こりそうにないアウトプットを生成するためにモデルに要求する新しいタスク「非インブレインストーミング」を導入する。
目標として仮説の可能性が低いトレーニングのベースラインアプローチは、人間がほぼ半分の確率または無関係であると評価するアウトプットを生成する。
そこで本研究では,新たなコントラスト学習手法を用いたテキスト生成手法を提案する。
論文 参考訳(メタデータ) (2023-05-30T18:05:34Z) - On Inductive Biases for Machine Learning in Data Constrained Settings [0.0]
この論文は、データ制約された設定で表現力のあるモデルを学ぶという問題に対する異なる答えを探求する。
ニューラルネットワークを学ぶために、大きなデータセットに頼るのではなく、データ構造を反映した既知の関数によって、いくつかのモジュールを置き換えるつもりです。
我々のアプローチは「帰納的バイアス」のフードの下に置かれており、これは探索するモデルの空間を制限する手元にあるデータの仮説として定義することができる。
論文 参考訳(メタデータ) (2023-02-21T14:22:01Z) - Constructing Effective Machine Learning Models for the Sciences: A
Multidisciplinary Perspective [77.53142165205281]
線形回帰モデルに変数間の変換や相互作用を手動で追加することで、非線形解が必ずしも改善されないことを示す。
データ駆動モデルを構築する前にこれを認識する方法や、そのような分析が本質的に解釈可能な回帰モデルへの移行にどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2022-11-21T17:48:44Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。