Описана возможность манипулировать ИИ
Nature: Выдачей ИИ можно манипулировать, обучая на непроверенных данных Специалисты Нью-Йоркского университета (США) описали потенциальную опасность от обучения моделей искусственного интеллекта (ИИ) на непроверенных данных. Исследование опубликовано в журнале Nature. По словам ученых, большие языковые модели (LLM) ИИ будут ошибаться, если их станут обучать на фейковой информации или специально загружать антинаучные данные. Специалисты выяснили, что когда уровень дезинформации обучающих материалов достигает всего 0,001 процента, нейросети уже могут начать выдавать значительный объем неверных ответов. Исследователи попробовали обучить две LLM на медицинской базе данных The Pile, выбрав 20 тем из трех медицинских…
Читать далее