論文の概要: Human-AI Interactions in the Communication Era: Autophagy Makes Large
Models Achieving Local Optima
- arxiv url: http://arxiv.org/abs/2402.11271v1
- Date: Sat, 17 Feb 2024 13:02:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 22:10:05.172403
- Title: Human-AI Interactions in the Communication Era: Autophagy Makes Large
Models Achieving Local Optima
- Title(参考訳): コミュニケーション時代の人間とAIの相互作用:局所的オプティマスを実現するオートファジー
- Authors: Shu Yang, Lijie Hu, Lu Yu, Muhammad Asif Ali, and Di Wang
- Abstract要約: 本研究では,人間と大規模モデルがコミュニケーションにおいて重要なリンクとして使用される際のバイアスと嗜好について検討する。
我々の主な発見は、合成された情報は、人為的な情報よりも、モデルトレーニングデータセットやメッセージングに組み込まれる可能性が高い点である。
本稿では,人間とAIシステム間の情報交換における人為的な情報の抑制を考慮に入れた,自己消費ループの現実的な2つのモデルを提案する。
- 参考スコア(独自算出の注目度): 11.972017738888825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing significance of large language and multimodal models in
societal information processing has ignited debates on social safety and
ethics. However, few studies have approached the analysis of these limitations
from the comprehensive perspective of human and artificial intelligence system
interactions. This study investigates biases and preferences when humans and
large models are used as key links in communication. To achieve this, we design
a multimodal dataset and three different experiments to evaluate generative
models in their roles as producers and disseminators of information. Our main
findings highlight that synthesized information is more likely to be
incorporated into model training datasets and messaging than human-generated
information. Additionally, large models, when acting as transmitters of
information, tend to modify and lose specific content selectively.
Conceptually, we present two realistic models of autophagic
("self-consumption") loops to account for the suppression of human-generated
information in the exchange of information between humans and AI systems. We
generalize the declining diversity of social information and the bottleneck in
model performance caused by the above trends to the local optima of large
models.
- Abstract(参考訳): 社会情報処理における大規模言語とマルチモーダルモデルの重要性の高まりは、社会安全と倫理に関する議論を引き起こしている。
しかし、人間と人工知能システムの相互作用の包括的観点から、これらの制限の分析にアプローチした研究は少ない。
本研究では,人間と大規模モデルがコミュニケーションの鍵となるリンクとして使用される場合のバイアスと嗜好について検討する。
そこで我々は,多モードデータセットと3つの実験を設計し,生産者や情報発信者としての役割における生成モデルを評価する。
我々の主な発見は、合成された情報は、人為的な情報よりも、モデルトレーニングデータセットやメッセージングに組み込まれる可能性が高いことである。
さらに、情報伝達者として振る舞う場合、大きなモデルは特定のコンテンツを選択的に修正し、失う傾向がある。
概念的には,人間とAIシステム間の情報交換における人為的な情報の抑制を考慮した,2つの現実的な自己消費ループモデルを提案する。
以上の傾向から生じる社会情報の多様性の低下とモデル性能のボトルネックを,大規模モデルの局所的オプティマに一般化する。
関連論文リスト
- Characterizing Model Collapse in Large Language Models Using Semantic Networks and Next-Token Probability [4.841442157674423]
合成コンテンツがWebに浸透するにつれて、生成的AIモデルはオートファジーなプロセスを経験し、独自の出力を使って微調整される。
これはモデル崩壊と呼ばれる現象につながり、世代を重ねて生成するAIモデルの性能と多様性を低下させる。
近年の研究では、様々な生成AIモデルとデータタイプにまたがるモデル崩壊の出現について検討されている。
論文 参考訳(メタデータ) (2024-10-16T08:02:48Z) - VFA: Vision Frequency Analysis of Foundation Models and Human [10.112417527529868]
機械学習モデルは現実世界のシナリオでは分散シフトに苦しむが、人間は堅牢な適応を示す。
大規模コンピュータビジョンモデルの特徴が人間の能力や頑健さにどのように影響するかを検討する。
論文 参考訳(メタデータ) (2024-09-09T17:23:39Z) - A Reliable Framework for Human-in-the-Loop Anomaly Detection in Time Series [17.08674819906415]
HILADは、人間とAIの動的かつ双方向なコラボレーションを促進するために設計された、新しいフレームワークである。
ビジュアルインターフェースを通じて、HILADはドメインの専門家に、大規模な予期せぬモデルの振る舞いを検出し、解釈し、修正する権限を与えます。
論文 参考訳(メタデータ) (2024-05-06T07:44:07Z) - Are Neural Topic Models Broken? [81.15470302729638]
トピックモデルの自動評価と人的評価の関係について検討する。
ニューラルトピックモデルは、確立された古典的手法と比較して、両方の点においてより悪くなる。
論文 参考訳(メタデータ) (2022-10-28T14:38:50Z) - Bottlenecks CLUB: Unifying Information-Theoretic Trade-offs Among
Complexity, Leakage, and Utility [8.782250973555026]
ボトルネック問題(英: Bottleneck problem)は、機械学習と情報理論の分野において近年注目を集めている最適化問題の重要なクラスである。
本稿では,複雑性推論ユーティリティ・ボトルネック(CLUB)モデルと呼ばれる最適化問題の一般的なファミリーを提案する。
CLUBモデルは、他の情報理論プライバシモデルと同様に、これらの問題を一般化する。
論文 参考訳(メタデータ) (2022-07-11T14:07:48Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - On the Efficacy of Adversarial Data Collection for Question Answering:
Results from a Large-Scale Randomized Study [65.17429512679695]
逆データ収集(ADC)では、人間の労働力がモデルとリアルタイムで対話し、誤った予測を誘発する例を作成しようとする。
ADCの直感的な魅力にも拘わらず、敵対的データセットのトレーニングがより堅牢なモデルを生成するかどうかは不明だ。
論文 参考訳(メタデータ) (2021-06-02T00:48:33Z) - Modeling Shared Responses in Neuroimaging Studies through MultiView ICA [94.31804763196116]
被験者の大規模なコホートを含むグループ研究は、脳機能組織に関する一般的な結論を引き出す上で重要である。
グループ研究のための新しい多視点独立成分分析モデルを提案し、各被験者のデータを共有独立音源と雑音の線形結合としてモデル化する。
まず、fMRIデータを用いて、被験者間の共通音源の同定における感度の向上を示す。
論文 参考訳(メタデータ) (2020-06-11T17:29:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。