Все больше людей используют искусственный интеллект (ChatGPT, DeepSeek и другие языковые модели - LM, или language models) для поиска информации о состоянии здоровья. Казалось бы, ничего сложного: описать симптомы, можно даже загрузить результаты анализов - и через полминуты получаешь четкий ответ с объяснениями, на которые у обычного врача на приеме может просто не хватать времени. И все же такие рекомендации допустимо рассматривать только в качестве первичной подсказки, которая требует обязательной проверки и интерпретации лечащим врачом. О рисках, которые возникают, если принимать ответы LM как истину в последней инстанции, о том, почему применение ИИ в медицине должно регулироваться, и как грамотно использовать эту технологию, "Российской газете" рассказал заместитель директора по реализации федеральных проектов НМИЦ онкологии имени Блохина, руководитель Исследовательского центра в сфере искусственного интеллекта в здравоохранении Тигран Геворкян.