В статье рассмотрены риски для социального восприятия медицинских профессий в контексте роста популярности генеративных текстовых и визуальных нейросетей. Статья находится в русле многочисленных исследований, которые склонны видеть скорее риски данной технологии, в том числе для области здравоохранения.Тематика стереотипов в отношении медицинских профессий крайне важна, т. к. они обнаруживают связь с негативными исходами для системы здравоохранения. Исследование сосредоточено в первую очередь на восприятии специалистов в области сестринского дела со стороны населения. С использованием выгрузок сетей СhatGPT, Kandinsky и Шедеврум проведено исследование заложенных в нейросети представлений о сестринской профессии. Во всех нейросетях мы видим воспроизводство стереотипов: стереотипы о внешности (пол, возраст, раса, униформа) чаще «разделяют» визуальные нейросети, а о функционале (отсутствие автономии, зависимость от коллег) - текстовые нейросети. Мы можем предполагать риски возникновения замкнутого круга, когда сеть обучается на данных с множеством стереотипов, а продукты на основании её выдачи увеличивают масштаб стереотипных представлений при дальнейшем обучении нейросети. Упомянуты усилия разработчиков, чтобы избежать воспроизведения стереотипий, но выгрузки показывают, что они не до конца успешны.Рекомендовано распространение социгуманитарной экспертизы нейросетей для предупреждения распространения искажений восприятия в них. Предлагается «промпт-эксперимент» как механизм выявления такого рода рисков.
The article examines the risks to social perception of health professions in the context of the growing popularity of generative textual and visual neural networks. The article is consistent with the growing body of research that tends to see more risks of this technology, including for healthcare.The second focus of the article - the stereotypes about health professions - is critical, as they have been associated with negative outcomes for the healthcare system. The study primarily focuses on the perception of nursing professionals as most stereotyped by the public.Using uploads from the chatGPT, Kandinsky, and Shedevrum networks, the author has investigated the neural network's embedded perceptions of the nursing profession. Reproduction of certain stereotypes has been identified in all neural networks; the appearance stereotypes (gender, age, race, uniform) are more often shared by visual neural networks, while the function stereotypes (lack of autonomy, dependence on colleagues) - by text networks. Actually, we can assume the risks of a vicious circle, when the network is trained on the largely stereotypical data, and products based on its output increase the scale of stereotypical representations during subsequent training of the neural network.Developers' efforts to avoid reproducing stereotypes are acknowledged, however, the uploads show that they are not fully successful.To prevent the spread of perceptual distortions in neural networks, it is recommended to promote their sociohumanistic evaluation. A «prompt-experiment» is proposed as a mechanism for identifying such risks.