Исследование публикуется в области социальной психологии и науки о личности.В серии исследований участников просили классифицировать авторов твитов, основываясь исключительно на содержании их сообщений в социальных сетях.
В этих исследованиях люди выносили суждения о поле, возрасте, образовании или политической ориентации писателя, основываясь только на словах, используемых в публичных сообщениях в Твиттере.Исследователи использовали методы НЛП для анализа и выделения стереотипов, которые люди использовали для категоризации людей по полу, возрасту, уровню образования и политической ориентации.
Хотя стереотипы и предположения людей часто были правильными, было много случаев, когда люди ошибались.«Эти неточные стереотипы имели тенденцию быть преувеличенными, а не обратными», — говорит ведущий автор Джордан Карпентер (сейчас работает в Университете Дьюка), — «например, у людей было достойное представление о том, что люди, которые не учились в колледже, с большей вероятностью будут ругаться, чем люди. с докторами наук, но они думали, что доктора никогда не ругаются, а это неправда ".Стереотипы в социальных сетяхСосредоточившись на неточностях стереотипов, их исследование показывает, как несколько стереотипов могут влиять друг на друга.
«Одним из наших самых интересных открытий является тот факт, что, когда людям было трудно определить чью-то политическую ориентацию, они, казалось, возвращались (бесполезно) к гендерным стереотипам, предполагая, что люди с женским звучанием были либералами, а люди с мужским звучанием были консервативными», заявляет Карпентер.Данные также показали, что люди полагают, что язык, связанный с технологиями, был знаком писателя-мужчины.
В этом исследовании «это правда: мужчины ДЕЙСТВИТЕЛЬНО пишут о технологиях больше, чем женщины, — говорит Карпентер. — Однако этот стереотип сильно привел к ложным выводам: почти каждая женщина, писавшая о технологиях, ошибочно считалась мужчиной».В приведенном выше примере стереотип преувеличен и «чрезмерно заметен в суждениях людей о мужчинах и женщинах», пишут авторы. «Люди по обе стороны дебатов о том, что« подходит, потому что точен », должны согласиться с тем, что этот стереотип, наряду с другими, которые мы выделяем, неуместен и в него следует вмешиваться».Искусственный интеллект и исследования стереотипов«Одним из важных аспектов этого исследования является то, что оно полностью меняет то, как многие исследования стереотипов проводились в прошлом», — говорит Даниэль Преотюк-Пьетро, ??соавтор и специалист по информатике из Центра позитивной психологии.
Вместо того, чтобы начинать с различных групп и спрашивать людей, какое поведение они ассоциируют с ними, исследователи начали с набора моделей поведения и попросили людей указать групповую идентичность человека, который их делал. Они также «рассматривали стереотипы как лексическую« сеть »: слова, которые мы ассоциируем с группой, сами по себе являются нашим стереотипом этой группы», — пишет Преотюк-Пьетро.Эта договоренность позволила команде использовать методы обработки естественного языка (NLP) для освещения стереотипов людей, никогда прямо не прося кого-либо явно одобрить их.«Это новый способ решения проблемы, заключающейся в том, что люди часто сопротивляются тому, чтобы открыто заявлять о своих стереотипах, либо потому, что они хотят представить себя беспристрастными, либо потому, что они не осознают все стереотипы, которые они используют», — говорит Карпентер.
Область НЛП — это общая ветвь искусственного интеллекта, которая занимается автоматическим пониманием письменной речи. NLP разработало множество знакомых приложений, используемых ежедневно, включая проверку орфографии, интеллектуальный текст, виртуальных помощников, таких как Siri, и предлагающих связанные новости, и это лишь несколько примеров.
«По мере того, как исследователи из разных областей работают вместе все чаще и чаще, интересно иметь возможность использовать методы информатики и психологии таким образом, чтобы внести свой вклад в обе области», — резюмирует Преотюк-Пьетро.
