img
img
img

СОДЕРЖАНИЕ:

  1. Разгорающийся скандал в «Яндекс Практикуме»
  2. Как студенты заподозрили, что кураторы – это AI?
  3. Переписки, неработающие ссылки и шаблонные ответы
  4. Жесткая реакция «Яндекс Практикума»: попытка замять скандал?
  5. Почему это может подорвать доверие ко всей системе онлайн-образования?
  6. Что скрывает руководство «Яндекс Практикума»?
  7. Кто в этой ситуации главный пострадавший?
  8. Выводы, которые напрашиваются сами собой…

РАЗГАРАЮЩИЙСЯ СКАНДАЛ В «ЯНДЕКС ПРАКТИКУМЕ»

Новый скандал с онлайн-обучением потряс студентов «Яндекс Практикума». Вместо обещанного персонального сопровождения они получили сухие, механистичные ответы, которые больше похожи на работу искусственного интеллекта, чем на человеческую поддержку. Масштабы проблемы оказались настолько серьезными, что обсуждение разгорелось в закрытых студенческих чатах, а затем выплеснулось наружу. Об этом сообщает ГРОМ

Возникает главный вопрос: если кураторы на самом деле являются AI, то за что студенты платят деньги? И главное – знали ли они об этом до подписки на курс?


КАК СТУДЕНТЫ ЗАПОДОЗРИЛИ, ЧТО КУРАТОРЫ – ЭТО AI?

Первым тревогу забил один из участников курса. Он обратил внимание на крайне неестественную манеру общения куратора, отсутствие логики в его ответах и очевидные шаблонные конструкции. В качестве доказательства он прикрепил скриншоты переписки, где куратор предлагал откровенно неадекватные решения, не понимал контекста вопросов и направлял студентов по ссылкам, которые просто не работали.

После этого обсуждение разгорелось в общем чате учебной группы. Там студенты начали массово делиться своими подозрениями. Многие подтвердили, что кураторы действительно уклоняются от сложных вопросов и отвечают слишком обобщенно. Это выглядело так, будто они просто копируют заранее заготовленные фразы.


ПЕРЕПИСКИ, НЕРАБОТАЮЩИЕ ССЫЛКИ И ШАБЛОННЫЕ ОТВЕТЫ

Наиболее показательный случай – это использование неработающих ссылок. Кураторы массово направляли студентов на ресурсы, которые либо не открывались, либо содержали нерелевантную информацию. Логично предположить, что живой человек так делать не стал бы, а вот нейросеть, не имеющая обратной связи, вполне может выдавать подобные ошибки.

Студенты также отмечали следующие тревожные сигналы:

  • Ответы, не соответствующие контексту.
  • Чрезмерно формальный стиль общения, похожий на машинный перевод.
  • Отказ от персонализированных разъяснений, даже в случае явного недопонимания темы.
  • Повторение одних и тех же шаблонных фраз.

ЖЕСТКАЯ РЕАКЦИЯ «ЯНДЕКС ПРАКТИКУМА»: ПОПЫТКА ЗАМЯТЬ СКАНДАЛ?

Казалось бы, компания должна была дать четкий ответ на обвинения, но вместо этого реакция была крайне неоднозначной. Один из старших кураторов ответил студенту, что подобные вопросы «неуместны» и что доказывать человечность сотрудников никто не собирается. Это только подлило масла в огонь.

После такого заявления студенты окончательно убедились, что их подозрения не беспочвенны. Ведь если все в порядке, почему нельзя просто объяснить ситуацию и успокоить учащихся? Напротив, руководство курса предпочло взять оборонительную позицию и начать замалчивать инцидент.


ПОЧЕМУ ЭТО МОЖЕТ ПОДОРВАТЬ ДОВЕРИЕ КО ВСЕЙ СИСТЕМЕ ОНЛАЙН-ОБРАЗОВАНИЯ?

Ситуация с «Яндекс Практикумом» вызывает глобальный вопрос: насколько честны образовательные платформы со своими студентами? Если под видом живых кураторов работают боты, то это коренным образом меняет ценность обучения.

  • Студенты рассчитывали на персональную поддержку, а получили механические ответы.
  • Никто не предупреждал их о том, что на вопросы может отвечать нейросеть.
  • Качество таких консультаций оказалось сомнительным, поскольку AI не способен корректно разбирать сложные вопросы.

Главный риск заключается в том, что теперь любая образовательная онлайн-платформа может оказаться под подозрением. Если даже известные компании, такие как «Яндекс Практикум», могут использовать AI без предупреждения, то что мешает другим следовать тому же пути?


ЧТО СКРЫВАЕТ РУКОВОДСТВО «ЯНДЕКС ПРАКТИКУМА»?

На данный момент от официальных представителей компании нет никаких комментариев. Это наводит на мысли о том, что «Яндекс Практикум» либо действительно использует AI в роли кураторов, либо пытается минимизировать ущерб, пока не начался полномасштабный скандал.

Отказ от прямого ответа также намекает на то, что у компании нет убедительного оправдания. Если бы кураторы действительно были живыми людьми, можно было бы легко доказать это, представив публичные заявления сотрудников или детально разобрав ситуацию. Но ничего подобного не происходит.


КТО В ЭТОЙ СИТУАЦИИ ГЛАВНЫЙ ПОСТРАДАВШИЙ?

Очевидно, что главные жертвы этой ситуации – студенты, которые платят за образовательные услуги, но получают непонятно что. Они рассчитывали на живое сопровождение, но, похоже, их просто «обучали» боты.

Но пострадать может не только аудитория «Яндекс Практикума». Вся индустрия онлайн-образования рискует потерять доверие, если подобные схемы окажутся распространенным явлением.

Скандал вокруг «Яндекс Практикума» показывает, насколько онлайн-образование может быть обманчивым. До сих пор нет четкого ответа на вопрос: это случайный сбой или преднамеренная политика компании? Но одно ясно точно – студенты не ожидали, что будут обучаться под диктовку нейросети вместо живых специалистов.

Related