Код пишет робот, ошибка ваша: корпорации требуют использования ИИ, который самостоятельно решает, какие задачи должны выполнять люди

Методы проектирования заставляют инженеров предпочитать искусственный интеллект привычным действиям.

Некоторые программисты все чаще жалуются, что корпоративные требования к использованию инструментов искусственного интеллекта ухудшают качество кода и препятствуют профессиональному росту. На фоне активного внедрения генеративных систем это уже не является частной темой отдельных команд — обязательное использование ИИ-помощников становится нормой в разных компаниях и странах.

Один из таких сигналов поступил от индийского разработчика полного стека, который работает в компании по финансовому программному обеспечению. Он сказал, что руководство одновременно сокращает персонал и требует написания кода с использованием Cursor. На бумаге этот инструмент должен сократить рутину, но на практике, по мнению сотрудника, он становится источником проблем и ошибок. У компании даже был инцидент в самом начале: приложение некорректно обрабатывало сессии и любой пользователь мог открыть данные третьим лицам. По словам разработчика, это произошло именно из-за слепой уверенности в автоматической генерации кода.

«Я думал, что научусь здесь чему-то, но все, что я делаю, это ежедневно подсказываю боту, пока я на работе, я ничего не понимаю, что происходит с проектом, и заметьте, я тот парень, который использует Neovim без каких-либо плагинов ИИ дома, специально для того, чтобы ИИ не писал мой код, и здесь от меня ждут, что я буду просто подсказывать ему весь день. Я даже не знаю, что мне следует делать, я чувствую, что мои навыки просто угасают, и я ненавижу работать здесь каждый день. день, потому что я чувствую, что это рискованная игра: один неверный намек отделяет меня от исправления ошибки или разрушения моего приложения».

Разработчик отмечает, что Cursor иногда полезен в режиме подсказки, но попытки выполнить ряд действий через встроенный агент не увенчались успехом. В одном случае инструмент сам удалил файл, а затем выдал неверную интерпретацию произошедшего, которую пришлось исправлять через Git. В то же время сотрудники с небольшим опытом перестают помнить синтаксис используемого языка и сосредотачиваются только на автодополнении. Он говорит, что особенно быстро эта зависимость формируется у новичков, которым еще нужна регулярная мануальная практика.

Специалист добавил, что к коллегам из геймдева и встроенной разработки подобные требования не предъявляются: генеративные помощники в этих областях пока справляются гораздо хуже, поэтому давление заметно слабее.

Похожие истории рассказывают и другие индийские инженеры. Аналогичная картина и в США. Консультант из Рочестера объясняет, что, работая в подразделении крупной технологической корпорации, он столкнулся с обязательным использованием ИИ даже в ситуации, когда инфраструктура не позволяла использовать базовый набор инструментов. Из-за отсутствия единого GitHub и закрытых сервисов ему пришлось обратиться к Copilot for Teams — единственной доступной интеграции. Руководство отслеживало статистику использования и регулярно напоминало активировать помощника хотя бы раз в неделю.

Консультант рассказал, что использует ИИ в ситуациях, когда раньше было достаточно простого поиска: уточнения параметров работы команды или поиска подхода к незнакомым процедурам. Иногда ответы оказывались точными, но иногда приводили в затяжной тупик. В одном случае он потратил несколько часов, пытаясь восстановить настройку Docker по неверному предложению помощника, и в итоге решил проблему обычным поиском всего за несколько минут.

Давление со стороны компаний постепенно усиливается. Reddit упоминает случаи, когда автоматическая генерация в GitHub Copilot создает дополнительную нагрузку на рецензента и заставляет его тратить много времени на исправление неправильных предложений ботов. Однако ИТ-компании продолжают продвигать идею обязательной интеграции. Ряд крупных игроков напрямую связывают оценки сотрудников с уровнем использования ИИ. Некоторые менеджеры просят своих подчиненных объяснить, почему они не используют имеющихся помощников, а в некоторых командах игнорирование корпоративного отношения привело к увольнениям.

Подобная динамика распространяется и за пределы инженерных профессий. Пользователи соцсетей все чаще пишут о сценариях принудительной работы в интерфейсах. Исследователи дизайна интерфейсов описывают, как компании используют манипулятивные методы проектирования для повышения взаимодействия с функциями ИИ — от постоянных визуальных напоминаний до стратегий, которые поощряют выбор помощника вместо обычных действий.

Несмотря на масштабные рекламные кампании и внешнее давление, многие люди по-прежнему отказываются использовать такие инструменты — из-за опасений по поводу точности, этических рисков, предвзятости моделей и плохой пригодности для некоторых задач.. При этом опытные инженеры подчеркивают, что новичкам особенно сложно работать в среде, где искусственный интеллект становится обязательным слоем: без практики и обмена знаниями формируется зависимость и ухудшается способность самостоятельно анализировать ошибки.

По мнению разработчиков, наблюдающих изнутри, генеративные помощники могут помочь, если их использовать аккуратно, но массовые корпоративные требования полностью полагаться на них меняют сам подход к обучению и усложняют путь новичкам. ИИ замыкает знакомый цикл, в котором практическая работа и отладка с более опытными коллегами были в центре профессионального развития. Сейчас эта фаза сокращается, и неясно, как компенсировать эту потерю в долгосрочной перспективе.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх