論文の概要: Human-AI Interactions in the Communication Era: Autophagy Makes Large
Models Achieving Local Optima
- arxiv url: http://arxiv.org/abs/2402.11271v1
- Date: Sat, 17 Feb 2024 13:02:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 22:10:05.172403
- Title: Human-AI Interactions in the Communication Era: Autophagy Makes Large
Models Achieving Local Optima
- Title(参考訳): コミュニケーション時代の人間とAIの相互作用:局所的オプティマスを実現するオートファジー
- Authors: Shu Yang, Lijie Hu, Lu Yu, Muhammad Asif Ali, and Di Wang
- Abstract要約: 本研究では,人間と大規模モデルがコミュニケーションにおいて重要なリンクとして使用される際のバイアスと嗜好について検討する。
我々の主な発見は、合成された情報は、人為的な情報よりも、モデルトレーニングデータセットやメッセージングに組み込まれる可能性が高い点である。
本稿では,人間とAIシステム間の情報交換における人為的な情報の抑制を考慮に入れた,自己消費ループの現実的な2つのモデルを提案する。
- 参考スコア(独自算出の注目度): 11.972017738888825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing significance of large language and multimodal models in
societal information processing has ignited debates on social safety and
ethics. However, few studies have approached the analysis of these limitations
from the comprehensive perspective of human and artificial intelligence system
interactions. This study investigates biases and preferences when humans and
large models are used as key links in communication. To achieve this, we design
a multimodal dataset and three different experiments to evaluate generative
models in their roles as producers and disseminators of information. Our main
findings highlight that synthesized information is more likely to be
incorporated into model training datasets and messaging than human-generated
information. Additionally, large models, when acting as transmitters of
information, tend to modify and lose specific content selectively.
Conceptually, we present two realistic models of autophagic
("self-consumption") loops to account for the suppression of human-generated
information in the exchange of information between humans and AI systems. We
generalize the declining diversity of social information and the bottleneck in
model performance caused by the above trends to the local optima of large
models.
- Abstract(参考訳): 社会情報処理における大規模言語とマルチモーダルモデルの重要性の高まりは、社会安全と倫理に関する議論を引き起こしている。
しかし、人間と人工知能システムの相互作用の包括的観点から、これらの制限の分析にアプローチした研究は少ない。
本研究では,人間と大規模モデルがコミュニケーションの鍵となるリンクとして使用される場合のバイアスと嗜好について検討する。
そこで我々は,多モードデータセットと3つの実験を設計し,生産者や情報発信者としての役割における生成モデルを評価する。
我々の主な発見は、合成された情報は、人為的な情報よりも、モデルトレーニングデータセットやメッセージングに組み込まれる可能性が高いことである。
さらに、情報伝達者として振る舞う場合、大きなモデルは特定のコンテンツを選択的に修正し、失う傾向がある。
概念的には,人間とAIシステム間の情報交換における人為的な情報の抑制を考慮した,2つの現実的な自己消費ループモデルを提案する。
以上の傾向から生じる社会情報の多様性の低下とモデル性能のボトルネックを,大規模モデルの局所的オプティマに一般化する。
関連論文リスト
- Data Augmentation in Human-Centric Vision [54.97327269866757]
本研究では,人間中心型視覚タスクにおけるデータ拡張手法の包括的分析を行う。
それは、人物のReID、人間のパーシング、人間のポーズ推定、歩行者検出など、幅広い研究領域に展開している。
我々の研究は、データ拡張手法をデータ生成とデータ摂動の2つの主なタイプに分類する。
論文 参考訳(メタデータ) (2024-03-13T16:05:18Z) - Visual Grounding Helps Learn Word Meanings in Low-Data Regimes [53.7168869241458]
現代のニューラル言語モデル(LM)は、人間の文の生成と理解をモデル化するための強力なツールである。
しかし、これらの結果を得るためには、LMは明らかに非人間的な方法で訓練されなければならない。
より自然主義的に訓練されたモデルは、より人間らしい言語学習を示すのか?
本稿では,言語習得における重要なサブタスクである単語学習の文脈において,この問題を考察する。
論文 参考訳(メタデータ) (2023-10-20T03:33:36Z) - Turning large language models into cognitive models [0.0]
大規模言語モデルが認知モデルに変換可能であることを示す。
これらのモデルは人間の行動の正確な表現を提供し、2つの意思決定領域において従来の認知モデルよりも優れている。
これらの結果は、大規模で事前学習されたモデルが一般的な認知モデルに適応できることを示唆している。
論文 参考訳(メタデータ) (2023-06-06T18:00:01Z) - Estimating the Personality of White-Box Language Models [0.589889361990138]
大規模なテキストコーパスで訓練された大規模言語モデルは、至る所で広範囲のアプリケーションで使用されている。
既存の研究は、これらのモデルが人間の偏見を捉え、捉えていることを示している。
これらのバイアス、特に害を引き起こす可能性のあるバイアスの多くは、十分に調査されている。
しかし、これらのモデルによって受け継がれた人間の性格特性を推測し、変化させる研究は、ほとんど、あるいは存在しない。
論文 参考訳(メタデータ) (2022-04-25T23:53:53Z) - StyleGAN-Human: A Data-Centric Odyssey of Human Generation [96.7080874757475]
この研究は、データ中心の観点から、"データエンジニアリング"における複数の重要な側面を調査します。
さまざまなポーズやテクスチャを抽出した230万以上のサンプルで、大規模な人間の画像データセットを収集し、注釈付けします。
本稿では,データサイズ,データ分布,データアライメントといった,スタイルGANに基づく人為的生成のためのデータ工学における3つの重要な要素について精査する。
論文 参考訳(メタデータ) (2022-04-25T17:55:08Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Beyond Tracking: Using Deep Learning to Discover Novel Interactions in
Biological Swarms [3.441021278275805]
本稿では,システムレベルの状態を全体像から直接予測するディープ・ネットワーク・モデルを提案する。
結果の予測モデルは、人間の理解した予測モデルに基づいていないため、説明モジュールを使用する。
これは、行動生態学における人工知能の例である。
論文 参考訳(メタデータ) (2021-08-20T22:50:41Z) - Multi-agent Trajectory Prediction with Fuzzy Query Attention [15.12743751614964]
複数のエージェントを持つシーンの軌道予測は、交通予測、歩行者追跡、経路計画といった多くの領域において難しい問題である。
この課題に対処する一般的なアーキテクチャとして、運動の重要な帰納バイアス、すなわち慣性、相対運動、意図、相互作用をモデル化する。
論文 参考訳(メタデータ) (2020-10-29T19:12:12Z) - Human Trajectory Forecasting in Crowds: A Deep Learning Perspective [89.4600982169]
本稿では,既存の深層学習に基づくソーシャルインタラクションのモデル化手法について詳細に分析する。
本稿では、これらの社会的相互作用を効果的に捉えるための知識に基づく2つのデータ駆動手法を提案する。
我々は,人間の軌道予測分野において,重要かつ欠落したコンポーネントであるTrajNet++を大規模に開発する。
論文 参考訳(メタデータ) (2020-07-07T17:19:56Z) - Modeling Shared Responses in Neuroimaging Studies through MultiView ICA [94.31804763196116]
被験者の大規模なコホートを含むグループ研究は、脳機能組織に関する一般的な結論を引き出す上で重要である。
グループ研究のための新しい多視点独立成分分析モデルを提案し、各被験者のデータを共有独立音源と雑音の線形結合としてモデル化する。
まず、fMRIデータを用いて、被験者間の共通音源の同定における感度の向上を示す。
論文 参考訳(メタデータ) (2020-06-11T17:29:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。