論文の概要: Position Paper: Against Spurious Sparks $-$ Dovelating Inflated AI
Claims
- arxiv url: http://arxiv.org/abs/2402.03962v2
- Date: Wed, 7 Feb 2024 08:33:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 11:47:21.635722
- Title: Position Paper: Against Spurious Sparks $-$ Dovelating Inflated AI
Claims
- Title(参考訳): ポジション・ペーパー:スプリアス・スパークスに対抗して、膨らんだaiの主張に$-$が科される
- Authors: Patrick Altmeyer, Andrew M. Demetriou, Antony Bartlett, Cynthia C. S.
Liem
- Abstract要約: 我々は,現在行われている人工知能(AGI)の探索が,大規模言語モデル(LLM)に過度に貢献する人間のような品質を実現するための完璧な嵐であるかについて論じる。
いくつかの実験で、潜伏空間における人間解釈パターンの発見は驚くべき結果ではないことが実証された。
- 参考スコア(独自算出の注目度): 6.929834518749885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans have a tendency to see 'human'-like qualities in objects around them.
We name our cars, and talk to pets and even household appliances, as if they
could understand us as other humans do. This behavior, called anthropomorphism,
is also seeing traction in Machine Learning (ML), where human-like intelligence
is claimed to be perceived in Large Language Models (LLMs). In this position
paper, considering professional incentives, human biases, and general
methodological setups, we discuss how the current search for Artificial General
Intelligence (AGI) is a perfect storm for over-attributing human-like qualities
to LLMs. In several experiments, we demonstrate that the discovery of
human-interpretable patterns in latent spaces should not be a surprising
outcome. Also in consideration of common AI portrayal in the media, we call for
the academic community to exercise extra caution, and to be extra aware of
principles of academic integrity, in interpreting and communicating about AI
research outcomes.
- Abstract(参考訳): 人間は周囲の物体に「人間」のような性質を見る傾向がある。
私たちは私たちの車を名付け、ペットや家電製品にも話しかけます。
この行動は擬人化と呼ばれ、機械学習(ml)にも牽引力があり、人間のような知性は大規模言語モデル(llm)で認識されていると主張されている。
本稿では,職業的インセンティブ,人的バイアス,一般方法論的設定を考慮し,現在の汎用人工知能(agi)の探索が,人間的性質をllmに過剰に分配するための完璧な嵐であることを示す。
いくつかの実験において、潜在空間における人間解釈パターンの発見は驚くべき結果ではないことが示されている。
また,メディアにおける一般的なai表現を考慮し,学術コミュニティに対して,ai研究成果の解釈と伝達において,学術的整合性の原則を意識するように求めた。
関連論文リスト
- The Multiple Dimensions of Spuriousness in Machine Learning [3.475875199871536]
データからの相関学習は、今日の機械学習(ML)と人工知能(AI)研究の基礎となる。
このようなアプローチは、ビッグデータコーパス内のパターン付き関係の自動発見を可能にするが、意図しない相関が捕捉された場合、障害モードの影響を受けやすい。
この脆弱性は、しばしば、パフォーマンス、公平性、堅牢性をモデル化する障害として批判される、急進性の尋問への関心を拡大した。
論文 参考訳(メタデータ) (2024-11-07T13:29:32Z) - Learning Divergence Fields for Shift-Robust Graph Representations [73.11818515795761]
本研究では,相互依存データに対する問題に対して,学習可能な分散場を持つ幾何学的拡散モデルを提案する。
因果推論によって新たな学習目標が導出され、ドメイン間で無神経な相互依存の一般化可能なパターンを学習するためのモデルが導出される。
論文 参考訳(メタデータ) (2024-06-07T14:29:21Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Skews in the Phenomenon Space Hinder Generalization in Text-to-Image Generation [59.138470433237615]
本稿では,関係学習用データセットの言語的スキューと視覚的スクリューの両方を定量化する統計指標を提案する。
系統的に制御されたメトリクスは、一般化性能を強く予測できることを示す。
この研究は、データの多様性やバランスを向上し、絶対的なサイズをスケールアップするための重要な方向を示します。
論文 参考訳(メタデータ) (2024-03-25T03:18:39Z) - AIGCs Confuse AI Too: Investigating and Explaining Synthetic Image-induced Hallucinations in Large Vision-Language Models [37.04195231708092]
我々は、AI合成画像によるLVLM(Large Vision-Language Models)の悪化する幻覚現象を強調した。
注目すべきは、AIGC textbfhallucination biasに光を当てることである: 合成画像によって誘導される物体幻覚は、より多い量で特徴づけられる。
我々は,Q-formerとLinearプロジェクタについて検討した結果,合成画像は視覚投射後のトークン偏差を呈し,幻覚バイアスを増幅することがわかった。
論文 参考訳(メタデータ) (2024-03-13T13:56:34Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - Inferring physical laws by artificial intelligence based causal models [3.333770856102642]
本稿では,相関関係を認識し,カジュアルな関係をもたらす物理原理の因果学習モデルを提案する。
本手法は,データ間の関係を把握できるだけでなく,変数間の因果関係を正しく把握できることを示す。
論文 参考訳(メタデータ) (2023-09-08T01:50:32Z) - Algebraic Learning: Towards Interpretable Information Modeling [0.0]
この論文は、一般的な情報モデリングにおける解釈可能性の問題に対処し、問題を2つの範囲から緩和する試みである。
まず、問題指向の視点を用いて、興味深い数学的性質が自然に現れるモデリング実践に知識を取り入れる。
第二に、訓練されたモデルを考えると、基礎となるシステムに関するさらなる洞察を抽出するために様々な方法を適用することができる。
論文 参考訳(メタデータ) (2022-03-13T15:53:39Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z) - Conceptual Modeling and Artificial Intelligence: Mutual Benefits from
Complementary Worlds [0.0]
これまでのところ、主に分離されたCMとAIの分野にアプローチする2つの交差点に取り組むことに興味があります。
このワークショップでは、(一)概念モデリング(CM)がAIにどのような貢献ができるのか、(一)その逆の方法で、多様体相互利益を実現することができるという仮定を取り入れている。
論文 参考訳(メタデータ) (2021-10-16T18:42:09Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。