Ставропольские эксперты предупредили о рисках зависимости от нейросетей
Ставропольские эксперты предупреждают о рисках чрезмерного доверия к нейросетям. В других странах уже стали появляться группы психологической помощи для пострадавших от взаимодействия с искусственным интеллектом (ИИ). На Ставрополье подобных групп нет, сообщает «Победа26», но могут появиться, ведь пользователей ИИ с каждым днем становится все больше.
«Я считаю, что если такая практика где-то уже существует, то в России она тоже будет нужна. Неважно, наберет ли популярность. Нужно просто брать и собирать группы из тех, кому это необходимо», — заявила психолог Марина Грицай.
Специалист отметила, что ее клиенты все чаще обращаются за советами к нейросетям вместо профессионалов. Люди даже отправляют ChatGPT скриншоты переписок с близкими для анализа конфликтов или ищут разъяснения психологических терминов.
Само общение с искусственным интеллектом не несет никакой опасности. Такие диалоги могут стать источником вдохновения, помочь раскрыть собственный потенциал. Опасность же представляет безоценочность искусственного интеллекта. «Чат GPT — это машина, которая не будет тебя осуждать. Она может не то чтобы оправдать твои откровенно плохие поступки, а найти в них положительные стороны. Человек с импульсивной структурой характера может часами общаться с нейросетью, чтобы она поясняла ему, почему все дураки, а он хороший. Эта безоценочность особо привлекает и даже создает эффект конфиденциальности», — объяснила Грицай.
По ее словам, люди с психическими расстройствами или повышенной тревожностью могут формулировать запросы, заранее подразумевающие определенный ответ, что усугубляет их состояние.
Заведующий кафедрой организации и технологии защиты информации СКФУ Вячеслав Петренко предупредил, что конфиденциональность в общении с нейросетями скорее мнимая. Например, в бесплатной версии ChatGPT сообщения могут анализировать люди-тренеры для улучшения системы.
«Главное правило безопасности простое: никогда не доверяйте нейросети конфиденциальную информацию. Не вводите номера паспортов или банковских карт, медицинские диагнозы, коммерческие тайны или личные секреты», — посоветовал эксперт.
20-летняя жительница Ставрополя Вероника Комнатная во время общения с чатом GPT подмечает, что в ответах он избегает конкретики и фактов, но хорошо выстраивает дружеские диалоги.
«Если говорить с ИИ, как с подружкой, он начнет использовать разговорные слова и писать со смайликами. Может и грубить», — поделилась девушка.
27-летний дизайнер и художник 3D-графики из Ставрополя Александр Попов активно применяет ИИ в своей работе. Специалист отмечает, что нейросети помогли ему повысить продуктивность. Однако молодой человек выявил негативную тенденцию: современные технологии снижают мотивацию к самостоятельному поиску и анализу информации.
«Нейросеть расслабляет — уже не хочется самому лазить по поисковику. Я человек, который застал дискеты, ходил в библиотеку и собирал информацию вручную. У меня критическое мышление встроено в подкорку, оно никуда не делось. Но у более молодых поколений могут быть проблемы, когда за тебя все анализирует нейросеть и нет необходимости учиться думать самостоятельно», — поделился опасениями Попов.
Эксперт Вячеслав Петренко также отметил склонности ИИ к «галлюцинациям» — созданию убедительно звучащих, но ложных фактов. Проверка критически важной информации остается ответственностью пользователя.
Психолог Марина Грицай считает, что частое использование ChatGPT может негативно влиять на гибкость ума и препятствовать развитию критического мышления, воображения и творческих способностей. Тем не менее специалист не рекомендует демонизировать нейросети. Они не навредят тем, кто применяет ИИ в качестве вспомогательного инструмента.
«Насторожиться можно тогда, когда человек изливает душу чату GPT, избегая общения с психологом. Ведь исцелить так называемый цикл травмы можно только посредством живого контакта, как минимум с одним специалистом, а лучше и при помощи группового лечения. Поэтому, на мой взгляд, искусственный интеллект никогда не сможет заменить живого человека», — пояснила Грицай.
Сам ChatGPT характеризует себя как продвинутую программу, имитирующую общение. Система отмечает относительную безопасность использования ИИ для развлечения, обучения и получения информации.
«Вред возникает при дисфункциональном, чрезмерном и наивном использовании, когда стирается грань между инструментом и живым существом. При осознанном и сбалансированном подходе ИИ может быть скорее полезным или нейтральным инструментом. Однако обществу и каждому из нас еще предстоит выработать гигиену такого общения», — говорит ChatGPT.
