Задолго до бурного развития систем искусственного интеллекта производитель электронных устройств Tomagochi (Тамагочи), имитирующих процесс ухода за домашними животными, пытался воспользоваться психологической зависимостью людей от своих виртуальных спутников. Разработчики ИИ-бота Клода пытаются вернуть часть этого опыта, внедрив соответствующую функцию в свои решения.
Об экспериментальных возможностях чат-бота Claude Code стало известно в результате того, что Anthropic случайно опубликовал фрагмент исходного кода при распространении обновления 2.1.88. Как сообщает The Verge, более 512 000 строк исходного кода Claude Code были обнародованы из-за ошибки человека в Anthropic. Анализ этого фрагмента кода позволил энтузиастам понять, над какими перспективными функциями работают специалисты Anthropic.
Среди прочего, были замечены признаки того, что Anthropic работает над функцией «памяти», которая позволяет пользователю ссылаться на предыдущие запросы в диалоге с Клодом. Известный представитель стартапа прокомментировал идею не особо благосклонно. По словам разработчика, использование памяти существенно увеличивает сложность, но не факт, что достигнутый выигрыш в эффективности взаимодействия с чат-ботом оправдывает это.
Кроме того, Anthropic был случайно пойман на разработке виртуального «питомца», который постоянно находился рядом с диалогом чат-бота и демонстрировал визуальную реакцию на действия человека. Альтернативой может стать КАЙРОС — вездесущий агент, следящий за действиями пользователя. Представители Anthropic признались, что фрагмент исходного кода попал в сеть случайно. Аналитики Gartner добавили, что в долгосрочной перспективе такая утечка не представляет серьезной угрозы для Anthropic, но заставит компанию задуматься о необходимости усиления мер безопасности.
Все важное из мира технологий прямо на ваш почтовый ящик.
Подписываясь, вы принимаете наши Условия и Политику конфиденциальности. Вы можете отказаться от подписки одним щелчком мыши в любое время.

