論文の概要: MONAL: Model Autophagy Analysis for Modeling Human-AI Interactions
- arxiv url: http://arxiv.org/abs/2402.11271v2
- Date: Sat, 30 Mar 2024 22:05:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-02 14:04:28.424124
- Title: MONAL: Model Autophagy Analysis for Modeling Human-AI Interactions
- Title(参考訳): monal:人間とAIの相互作用をモデル化するためのモデルオートファジー分析
- Authors: Shu Yang, Muhammad Asif Ali, Lu Yu, Lijie Hu, Di Wang,
- Abstract要約: 大規模モデルの自己消費説明のためのモデルオートファジー分析(MONAL)を提案する。
MONALは、人間とAIシステム間の交換における人為的な情報の抑制を解明するために、2つの異なる自己食ループを使用している。
生成したモデルのキャパシティを,情報作成者とディスセミネータの両方として評価する。
- 参考スコア(独自算出の注目度): 11.972017738888825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing significance of large models and their multi-modal variants in societal information processing has ignited debates on social safety and ethics. However, there exists a paucity of comprehensive analysis for: (i) the interactions between human and artificial intelligence systems, and (ii) understanding and addressing the associated limitations. To bridge this gap, we propose Model Autophagy Analysis (MONAL) for large models' self-consumption explanation. MONAL employs two distinct autophagous loops (referred to as ``self-consumption loops'') to elucidate the suppression of human-generated information in the exchange between human and AI systems. Through comprehensive experiments on diverse datasets, we evaluate the capacities of generated models as both creators and disseminators of information. Our key findings reveal (i) A progressive prevalence of model-generated synthetic information over time within training datasets compared to human-generated information; (ii) The discernible tendency of large models, when acting as information transmitters across multiple iterations, to selectively modify or prioritize specific contents; and (iii) The potential for a reduction in the diversity of socially or human-generated information, leading to bottlenecks in the performance enhancement of large models and confining them to local optima.
- Abstract(参考訳): 社会情報処理における大規模モデルの重要性の高まりとその多様変種は、社会安全と倫理に関する議論に火をつけている。
しかし、次のような包括的分析の方法が存在する。
i)人間と人工知能システム間の相互作用、及び
(ii)関連する制限を理解し、対処すること。
このギャップを埋めるために,大規模モデルの自己消費説明のためのモデルオートファジー分析(MONAL)を提案する。
MONALは、人間とAIシステム間の交換における人為的な情報の抑制を解明するために、2つの異なる自食ループ( ‘`self-consumption loops'' と呼ばれる)を使用している。
多様なデータセットに関する総合的な実験を通じて、生成したモデルの容量を情報の創造者および流通者の両方として評価する。
私たちの重要な発見は
一 人為的な情報と比較して、訓練データセットにおけるモデル生成合成情報の経時的普及率
二 大型モデルの複数の反復にまたがって情報発信者として振る舞う場合において、特定内容を選択的に変更又は優先する傾向
三 社会的・人為的な情報の多様性を低下させる可能性があり、大モデルの性能向上と局所最適化のボトルネックとなる。
関連論文リスト
- VFA: Vision Frequency Analysis of Foundation Models and Human [10.112417527529868]
機械学習モデルは現実世界のシナリオでは分散シフトに苦しむが、人間は堅牢な適応を示す。
大規模コンピュータビジョンモデルの特徴が人間の能力や頑健さにどのように影響するかを検討する。
論文 参考訳(メタデータ) (2024-09-09T17:23:39Z) - A Reliable Framework for Human-in-the-Loop Anomaly Detection in Time Series [17.08674819906415]
HILADは、人間とAIの動的かつ双方向なコラボレーションを促進するために設計された、新しいフレームワークである。
ビジュアルインターフェースを通じて、HILADはドメインの専門家に、大規模な予期せぬモデルの振る舞いを検出し、解釈し、修正する権限を与えます。
論文 参考訳(メタデータ) (2024-05-06T07:44:07Z) - Are Neural Topic Models Broken? [81.15470302729638]
トピックモデルの自動評価と人的評価の関係について検討する。
ニューラルトピックモデルは、確立された古典的手法と比較して、両方の点においてより悪くなる。
論文 参考訳(メタデータ) (2022-10-28T14:38:50Z) - Explainable Human-in-the-loop Dynamic Data-Driven Digital Twins [6.657586324950896]
Digital Twins (DT) は基本的に動的データ駆動型モデルであり、現実世界のシステムのリアルタイム共生「仮想レプリカ」として機能する。
本稿では, 双方向共生感覚フィードバックを利用して, ヒューマン・イン・ザ・ループ型DDDASおよびDTシステムにおける説明可能性を活用する手法を提案する。
論文 参考訳(メタデータ) (2022-07-19T07:15:12Z) - Bottlenecks CLUB: Unifying Information-Theoretic Trade-offs Among
Complexity, Leakage, and Utility [8.782250973555026]
ボトルネック問題(英: Bottleneck problem)は、機械学習と情報理論の分野において近年注目を集めている最適化問題の重要なクラスである。
本稿では,複雑性推論ユーティリティ・ボトルネック(CLUB)モデルと呼ばれる最適化問題の一般的なファミリーを提案する。
CLUBモデルは、他の情報理論プライバシモデルと同様に、これらの問題を一般化する。
論文 参考訳(メタデータ) (2022-07-11T14:07:48Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - On the Efficacy of Adversarial Data Collection for Question Answering:
Results from a Large-Scale Randomized Study [65.17429512679695]
逆データ収集(ADC)では、人間の労働力がモデルとリアルタイムで対話し、誤った予測を誘発する例を作成しようとする。
ADCの直感的な魅力にも拘わらず、敵対的データセットのトレーニングがより堅牢なモデルを生成するかどうかは不明だ。
論文 参考訳(メタデータ) (2021-06-02T00:48:33Z) - Modeling Shared Responses in Neuroimaging Studies through MultiView ICA [94.31804763196116]
被験者の大規模なコホートを含むグループ研究は、脳機能組織に関する一般的な結論を引き出す上で重要である。
グループ研究のための新しい多視点独立成分分析モデルを提案し、各被験者のデータを共有独立音源と雑音の線形結合としてモデル化する。
まず、fMRIデータを用いて、被験者間の共通音源の同定における感度の向上を示す。
論文 参考訳(メタデータ) (2020-06-11T17:29:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。