人类日益在社交媒体环境中与人互动,其中算法控制他们的信息流。算法一定程度上决定了社媒用户看到的信息、遇到的人群和传播的观点。社交媒体的算法旨在放大能促进平台互动的信息。社会心理学家发现的证据表明,这种设计的副作用是放大了人们倾向于学习的信息。此类信息被称为 PRIME,代表 prestigious, in-group, moral and emotional information,即有威望的、群体内的、道德的和情感的信息。在人类演化的过去,从 PRIME 信息中学习的偏见是有益的:从有威望的个体学习会富有成效,因为他们是成功的,他们的行为可以复制。此外,关注和惩罚违反道德的人则有利于社群的合作。但当 PRIME 信息被算法放大并被人利用时,会发生什么?社交媒体上的威望是可以伪造的,而新闻源充斥着负面和道德的信息助长了冲突而不是合作。人类心理和算法放大之间的互相作用导致了失调,社会化学习支持合作和问题解决,但社媒算法旨在增加互动。社会心理学家将这种失调称为功能错位(functional misalignment)。算法调解的社会化学习中功能错位的后果之一是人们开始形成错误的认知。近期的研究发现,当算法选择性地放大更极端的政治观点时,人们认为其所在的政治内群体和外群体之间的分歧比实际的更严重。功能错位也会扩大错误信息的传播。另一项研究发现,传播政治错误信息的人会利用道德的和情感的信息来扩大此类信息的分享。研究人员表示他们正在专研新算法设计,鼓励互动的同时惩罚 PRIME 信息。
https://theconversation.com/social-media-algorithms-warp-how-people-learn-from-each-other-research-shows-211172