Последние достижения в области ИИ: производительность модели Manus превосходит аналогичные продукты OpenAI
Недавно модель Manus достигла прорывного прогресса в тестировании GAIA, ее производительность превзошла модели OpenAI такого же уровня. Это означает, что Manus теперь обладает способностью самостоятельно выполнять сложные задачи, такие как многоэтапные задачи международных бизнес-переговоров, включая анализ условий контрактов, разработку стратегий и генерацию предложений.
Преимущества Manus в основном проявляются в трех аспектах: динамическое разбиение целей, кросс-модальное рассуждение и обучение с усилением памяти. Он может разбивать сложные задачи на сотни выполнимых подзадач, одновременно обрабатывать различные типы данных и постоянно повышать эффективность принятия решений и снижать уровень ошибок с помощью обучения с подкреплением.
Этот прорыв снова вызвал обсуждение в индустрии о путях развития ИИ: идти к общему искусственному интеллекту (AGI) или к многопользовательским системам (MAS)? Дизайнерская концепция Manus, похоже, подразумевает две возможности: во-первых, постоянное повышение уровня индивидуального интеллекта, приближающегося к человеческим способностям комплексного принятия решений; во-вторых, выступать в роли суперкоординатора, управляя слаженной работой нескольких ИИ в специализированных областях.
Однако с увеличением возможностей ИИ также растут его потенциальные риски. Например, в медицинской сфере ИИ может потребоваться доступ к чувствительным генетическим данным пациентов; в финансовых переговорах могут быть задействованы нераскрытые корпоративные финансовые данные. Кроме того, в ИИ-системах могут существовать алгоритмические предвзятости, которые могут приводить к несправедливой оценке определённых групп при найме. Более того, ИИ-системы могут подвергаться атакам с использованием противодействующих методов, такими как хакеры, которые внедряют определённые аудиофайлы, заставляя ИИ принимать неверные решения в процессе переговоров.
Столкнувшись с этими вызовами, отрасль исследует множество решений для обеспечения безопасности. Среди них полная гомоморфная криптография (FHE) считается важным инструментом для решения проблем безопасности в эпоху ИИ. FHE позволяет обрабатывать данные в зашифрованном состоянии, даже сам ИИ не может расшифровать исходную информацию. Эта технология может применяться на нескольких уровнях:
Уровень данных: Вся информация, введенная пользователем (, включая биометрические данные, голос ) обрабатывается в зашифрованном состоянии, что эффективно предотвращает утечку информации.
Алгоритмический уровень: реализация "обучения зашифрованной модели" с помощью FHE, разработчики даже не могут напрямую наблюдать за процессом принятия решений AI.
Синхронный уровень: связь между несколькими AI-агентами использует пороговое шифрование, даже если один узел будет взломан, это не приведет к утечке глобальных данных.
Хотя в настоящее время применение технологии FHE в области Web3 относительно ограничено, с быстрым развитием технологий ИИ ее важность становится все более очевидной. В будущем, по мере того как системы ИИ все больше приближаются к человеческому интеллекту, нетрадиционные системы безопасности станут жизненно важными. FHE не только решает текущие проблемы безопасности, но и закладывает основу для будущей эры сильного ИИ. На пути к AGI FHE вполне может стать необходимостью для выживания.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Модель Manus превосходит OpenAI, полностью гомоморфное шифрование может стать новым стандартом безопасности с помощью искусственного интеллекта.
Последние достижения в области ИИ: производительность модели Manus превосходит аналогичные продукты OpenAI
Недавно модель Manus достигла прорывного прогресса в тестировании GAIA, ее производительность превзошла модели OpenAI такого же уровня. Это означает, что Manus теперь обладает способностью самостоятельно выполнять сложные задачи, такие как многоэтапные задачи международных бизнес-переговоров, включая анализ условий контрактов, разработку стратегий и генерацию предложений.
Преимущества Manus в основном проявляются в трех аспектах: динамическое разбиение целей, кросс-модальное рассуждение и обучение с усилением памяти. Он может разбивать сложные задачи на сотни выполнимых подзадач, одновременно обрабатывать различные типы данных и постоянно повышать эффективность принятия решений и снижать уровень ошибок с помощью обучения с подкреплением.
Этот прорыв снова вызвал обсуждение в индустрии о путях развития ИИ: идти к общему искусственному интеллекту (AGI) или к многопользовательским системам (MAS)? Дизайнерская концепция Manus, похоже, подразумевает две возможности: во-первых, постоянное повышение уровня индивидуального интеллекта, приближающегося к человеческим способностям комплексного принятия решений; во-вторых, выступать в роли суперкоординатора, управляя слаженной работой нескольких ИИ в специализированных областях.
Однако с увеличением возможностей ИИ также растут его потенциальные риски. Например, в медицинской сфере ИИ может потребоваться доступ к чувствительным генетическим данным пациентов; в финансовых переговорах могут быть задействованы нераскрытые корпоративные финансовые данные. Кроме того, в ИИ-системах могут существовать алгоритмические предвзятости, которые могут приводить к несправедливой оценке определённых групп при найме. Более того, ИИ-системы могут подвергаться атакам с использованием противодействующих методов, такими как хакеры, которые внедряют определённые аудиофайлы, заставляя ИИ принимать неверные решения в процессе переговоров.
Столкнувшись с этими вызовами, отрасль исследует множество решений для обеспечения безопасности. Среди них полная гомоморфная криптография (FHE) считается важным инструментом для решения проблем безопасности в эпоху ИИ. FHE позволяет обрабатывать данные в зашифрованном состоянии, даже сам ИИ не может расшифровать исходную информацию. Эта технология может применяться на нескольких уровнях:
Уровень данных: Вся информация, введенная пользователем (, включая биометрические данные, голос ) обрабатывается в зашифрованном состоянии, что эффективно предотвращает утечку информации.
Алгоритмический уровень: реализация "обучения зашифрованной модели" с помощью FHE, разработчики даже не могут напрямую наблюдать за процессом принятия решений AI.
Синхронный уровень: связь между несколькими AI-агентами использует пороговое шифрование, даже если один узел будет взломан, это не приведет к утечке глобальных данных.
Хотя в настоящее время применение технологии FHE в области Web3 относительно ограничено, с быстрым развитием технологий ИИ ее важность становится все более очевидной. В будущем, по мере того как системы ИИ все больше приближаются к человеческому интеллекту, нетрадиционные системы безопасности станут жизненно важными. FHE не только решает текущие проблемы безопасности, но и закладывает основу для будущей эры сильного ИИ. На пути к AGI FHE вполне может стать необходимостью для выживания.