Стартап Ильи Саткевер привлек еще 1 миллиард долларов в оценке 30 миллиардов долларов США.

Безопасный стартап Superintelligence от Ильи Сацкевер, который создает более высокую, но безопасную искусственное интеллект, близок к привлечению 1 миллиард долларов в новом раунде финансирования. Ожидается, что общая оценка компании достигнет 30 миллиардов долларов. Это на 10 миллиардов долларов больше, чем прогнозы аналитиков несколько недель назад. Основным инвестором в этом раунде будут Greenoaks Capital Partners, который намерен инвестировать 500 миллионов долларов, заявив, что не планирует запускать коммерческие продукты II в течение следующих нескольких лет.

Sutzkever является одним из ведущих экспертов в области искусственного интеллекта, и его название связано с большими достижениями в этой области, поэтому его власть достаточно для привлечения серьезных инвестиций. Будучи ведущим ученым в Openai, Sutzkever внес значительный вклад в создание и разработку технологий, лежащих в основе моделей CHATGPT. Его работа с алгоритмами глубокого обучения и развития искусственного интеллекта делает его одним из самых уважаемых исследователей в этой области.

Даниэль Леви и Даниэль Гросс, бывшие специалисты OpenAI и Apple AI, также участвуют в проекте Safe Superintelligence. Компания, которая не имеет текущего дохода, заявляет о том, что она не будет продавать продукты искусственного интеллекта в ближайшие годы. Вместо этого она сосредоточится на Разработка технологий, направленных на создание безопасного и этического искусственного интеллекта.

Компания уже собрала средства из основных венчурных фондов, таких как Sequoia Capital, Andreessen Horowitz и DST Global. До настоящего времени сумма, поднятая безопасной суперинтеллигенностью, составляет приблизительно 1,5 миллиарда долларов. Собранные инвестиции должны помочь дальнейшему развитию и исследованиям в области искусственного интеллекта.

Сатцкевер ушел Openai в мае 2024 года. Точные причины его отъезда не были указаны. Как и сам Альтман, сам Илья сказал, что пришло время двигаться вперед, и бывший ведущий исследователь решил сосредоточиться на своих собственных проектах. Тем не менее, журналисты из Wall Street Journal заявили, что причиной ссоры между основателями Openai было небрежное отношение Альтмана к мерам безопасности. Еще в 2022 году Суцкевер заявил, что Сверхдержанный ИИ может начать относиться к людям, когда мы относимся к животными эта перспектива пугает его. Пресса также утверждает, что увольнение Сацкевера, возможно, отомстил Альтмана за ведущую роль Илья в неудачной отставке основателя.

Что именно он делает Безопасная суперинтеллигенность Это не ясно. Веб -сайт компании очень лаконичный, только общее описание:

«Безопасная суперинтеллигенность — это наша миссия, наша название и вся наша дорожная карта продукта, потому что это наш единственный приоритет. Наша команда, инвесторы и бизнес -модель сосредоточены на достижении безопасного супер -интеллектуального искусственного интеллекта. Наш единственный приоритет означает, что нет никаких отвлекающих факторов, таких как затраты на управление или производственные циклы, а наша бизнес -модель означает, что безопасность, надежность и прогресс не зависят от краткосрочного коммерческого давления.

Sutzkever и ряд других экспертов по искусственному искусству часто подчеркивают, что при продвижении технологий ИИ важно ввести меры для предотвращения потенциальных рисков. Супер -сильный ИИ может обостриться за пределы человеческого контроля и представлять опасность, если он не ограничен конкретными принципами безопасности. Вот почему безопасная суперинтеллигенность работает над созданием таких методов управления, а не самого сильного ИИ.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх