Ошибки нейросетей: 20 смешных факапов искусственного интеллекта
![Ошибки нейросетей: 20 смешных факапов искусственного интеллекта](https://resizer.mail.ru/p/7622474a-b4e4-5592-b1ca-48b30a9892cf/AQAKd3xw6F8oZvkGWRiBq9Rme5konW2yCBRuv0LKjVXOXXzXthmPc3o8ZODNVdlR5E-A9KaCMfnxMSqcOpOW8zIxxLU.jpg)
Все ошибаются — даже нейросети. Но это не повод их не использовать. Собрали самые странные и смешные факапы зарубежных и российских генеративных нейронок.
Мы привыкли читать новости о том, как искусственный интеллект и нейросети меняют мир: пересказывают длинные видео, помогают жарить стейки или работают на телевидении. Но даже у самых продвинутых нейросетей случаются факапы.
Иногда факапы выглядят безобидно — когда нейросеть рисует шесть пальцев на руке или придумывает несмешную шутку. Риски возникают, когда искусственный интеллект выдает ложный ответ за истинный.
Языковые модели, которые лежат в основе нейросетей, несовершенны и могут выдавать «галлюцинации» из-за недостаточности данных. Например, в 2022 году из-за ошибки ИИ российских водителей праворульных машин автоматически штрафовали за непристегнутый ремень. Вторая проблема — недостаточно точный промптинг. Если пользователь напишет нейросети абстрактный и короткий запрос без деталей и контекста, то получит слабый результат, примерно как на картинках ниже.