論文の概要: To what extent should we trust AI models when they extrapolate?
- arxiv url: http://arxiv.org/abs/2201.11260v1
- Date: Thu, 27 Jan 2022 01:27:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 14:01:20.190067
- Title: To what extent should we trust AI models when they extrapolate?
- Title(参考訳): エクスポーレーション時に、どの程度AIモデルを信頼すべきなのか?
- Authors: Roozbeh Yousefzadeh and Xuenan Cao
- Abstract要約: モデルは頻繁に外挿され、外挿の程度は様々であり、社会的に連続的であることを示す。
本稿では,AIの社会的応用について検討し,モデルが不注意に外挿する方法を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many applications affecting human lives rely on models that have come to be
known under the umbrella of machine learning and artificial intelligence. These
AI models are usually complicated mathematical functions that map from an input
space to an output space. Stakeholders are interested to know the rationales
behind models' decisions and functional behavior. We study this functional
behavior in relation to the data used to create the models. On this topic,
scholars have often assumed that models do not extrapolate, i.e., they learn
from their training samples and process new input by interpolation. This
assumption is questionable: we show that models extrapolate frequently; the
extent of extrapolation varies and can be socially consequential. We
demonstrate that extrapolation happens for a substantial portion of datasets
more than one would consider reasonable. How can we trust models if we do not
know whether they are extrapolating? Given a model trained to recommend
clinical procedures for patients, can we trust the recommendation when the
model considers a patient older or younger than all the samples in the training
set? If the training set is mostly Whites, to what extent can we trust its
recommendations about Black and Hispanic patients? Which dimension (race,
gender, or age) does extrapolation happen? Even if a model is trained on people
of all races, it still may extrapolate in significant ways related to race. The
leading question is, to what extent can we trust AI models when they process
inputs that fall outside their training set? This paper investigates several
social applications of AI, showing how models extrapolate without notice. We
also look at different sub-spaces of extrapolation for specific individuals
subject to AI models and report how these extrapolations can be interpreted,
not mathematically, but from a humanistic point of view.
- Abstract(参考訳): 人間の生活に影響を与える多くのアプリケーションは、機械学習と人工知能の傘の下で知られるようになったモデルに依存している。
これらのAIモデルは、通常、入力空間から出力空間にマッピングする複雑な数学的関数である。
利害関係者は、モデルの意思決定と機能的行動の背後にある理論的根拠を知りたがっている。
モデル作成に使用するデータに関連して,この機能挙動について検討する。
この話題について、学者はしばしばモデルを外挿しない、すなわち訓練サンプルから学習し、補間によって新しい入力を処理すると仮定している。
この仮定は疑わしい: モデルは頻繁に外挿することを示し、外挿の程度は異なり、社会的に連続的である。
我々は、1つ以上のデータセットのかなりの部分で外挿が合理的と考えられることを実証する。
モデルが外挿しているかどうかを知らなければ、どうやってモデルを信じられるのか?
患者に対して臨床手順を推奨するモデルを考えると、トレーニングセットのすべてのサンプルより高齢または若年者を考慮した場合、推奨を信頼できるだろうか?
トレーニングセットが大半が白人であれば、ブラックとヒスパニックの患者の推奨事項をどの程度信頼できるだろうか?
どの次元(人種、性別、年齢)が外挿されるのか?
たとえモデルが全ての人種の人々に訓練されたとしても、レースに関連する重要な方法で外挿される可能性がある。
最大の疑問は、トレーニングセット外にある入力を処理する場合、AIモデルをどの程度信頼できるのか、ということです。
本稿では,AIの社会的応用について検討し,モデルが不注意に外挿する方法を示す。
また、AIモデルに属する特定の個人に対する外挿の異なる部分空間を調べ、これらの外挿がどのように解釈できるかを数学的ではなく人文論的観点から報告する。
関連論文リスト
- Great Models Think Alike and this Undermines AI Oversight [47.7725284401918]
モデル類似性がAI監視の両面に与える影響について検討する。
モデル誤りの重複に基づくLM類似性の確率論的尺度を提案する。
我々の研究は、モデル類似性の報告と修正の重要性を強調します。
論文 参考訳(メタデータ) (2025-02-06T18:56:01Z) - AutoElicit: Using Large Language Models for Expert Prior Elicitation in Predictive Modelling [53.54623137152208]
我々はAutoElicitを導入し、大規模言語モデルから知識を抽出し、予測モデルのための事前構築を行う。
これらの先行情報は情報的であり、自然言語を用いて洗練できることを示す。
AutoElicitは、非形式的な事前よりもエラーを大幅に減らし、ラベルを減らし、コンテクスト内学習を一貫して上回ります。
論文 参考訳(メタデータ) (2024-11-26T10:13:39Z) - Position: Stop Making Unscientific AGI Performance Claims [6.343515088115924]
人工知能(AI)分野の発展は、人工知能(AGI)の「スパーク」を観察するための「完璧な嵐」を生み出した。
我々は、モデルの潜在空間における有意義なパターンの発見は、AGIを支持する証拠とは見なされないことを議論し、実証的に実証した。
我々は、モデル表現と興味のある変数の間の相関が、モデルが根底にある「真実」の関係について理解していることから「原因」であるとの誤解に対して、AIの方法論的設定と一般的な公開イメージの両方が理想的であると結論付けている。
論文 参考訳(メタデータ) (2024-02-06T12:42:21Z) - Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - Scaling Laws Do Not Scale [54.72120385955072]
最近の研究によると、データセットのサイズが大きくなると、そのデータセットでトレーニングされたモデルのパフォーマンスが向上する。
このスケーリング法則の関係は、モデルのアウトプットの質を異なる集団がどのように認識するかと一致しないパフォーマンスを測定するために使われる指標に依存する、と我々は主張する。
異なるコミュニティは、互いに緊張関係にある価値を持ち、モデル評価に使用されるメトリクスについて、困難で、潜在的に不可能な選択をもたらす可能性がある。
論文 参考訳(メタデータ) (2023-07-05T15:32:21Z) - On Inductive Biases for Machine Learning in Data Constrained Settings [0.0]
この論文は、データ制約された設定で表現力のあるモデルを学ぶという問題に対する異なる答えを探求する。
ニューラルネットワークを学ぶために、大きなデータセットに頼るのではなく、データ構造を反映した既知の関数によって、いくつかのモジュールを置き換えるつもりです。
我々のアプローチは「帰納的バイアス」のフードの下に置かれており、これは探索するモデルの空間を制限する手元にあるデータの仮説として定義することができる。
論文 参考訳(メタデータ) (2023-02-21T14:22:01Z) - Constructing Effective Machine Learning Models for the Sciences: A
Multidisciplinary Perspective [77.53142165205281]
線形回帰モデルに変数間の変換や相互作用を手動で追加することで、非線形解が必ずしも改善されないことを示す。
データ駆動モデルを構築する前にこれを認識する方法や、そのような分析が本質的に解釈可能な回帰モデルへの移行にどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2022-11-21T17:48:44Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。