Прорывные достижения модели Manus вызывают новые размышления о путях развития ИИ и безопасности

robot
Генерация тезисов в процессе

Новый этап в развитии ИИ: Прорывы и вызовы модели Manus

Недавно модель Manus достигла прорывных результатов в бенчмаркинге GAIA, её производительность превзошла производительность крупных языковых моделей того же уровня. Это достижение означает, что Manus способна независимо справляться со сложными задачами, такими как международные бизнес-переговоры, включая анализ контрактов, разработку стратегий и координацию команд.

Преимущества Manus в основном проявляются в трех аспектах: динамическое разбиение целей, кросс-модальное рассуждение и обучение с усилением памяти. Он может разбить сложные задачи на сотни исполнимых подзадач, одновременно обрабатывая различные типы данных и постоянно повышая эффективность принятия решений и снижая уровень ошибок с помощью обучения с подкреплением.

Это достижение снова вызвало обсуждение в отрасли о путях развития ИИ: следует ли развиваться в сторону единой модели общего искусственного интеллекта (AGI) или же сосредоточиться на сотрудничестве в рамках многоагентных систем (MAS)?

Дизайнерская концепция Manus подразумевает две возможности:

  1. Путь AGI: постоянное повышение возможностей единой интеллектуальной системы, приближая её к уровню комплексного принятия решений человека.

  2. Путь MAS: использовать Manus в качестве суперкоординатора для управления совместной работой множества агентов в различных профессиональных областях.

Выбор между этими двумя путями на самом деле отражает проблему баланса между эффективностью и безопасностью в развитии ИИ. Чем ближе единый агент к AGI, тем труднее объяснить его процесс принятия решений; в то время как сотрудничество между многими агентами может распределить риски, но может упустить ключевые моменты принятия решений из-за задержек в коммуникации.

Manus приносит первые лучи рассвета AGI, безопасность ИИ также заслуживает размышлений

Развитие Manus также подчеркивает врожденные риски систем ИИ:

  1. Проблема конфиденциальности данных: в таких областях, как здравоохранение и финансы, Manus необходимо получить доступ к чувствительным данным.

  2. Алгоритмическая предвзятость: в таких областях, как управление человеческими ресурсами, могут возникать несправедливые решения.

  3. Уязвимости безопасности: Хакеры могут вмешиваться в оценку Manus определенным образом.

Эти проблемы отражают тревожную тенденцию: чем умнее становятся AI-системы, тем шире их потенциальная уязвимость.

Чтобы справиться с этими вызовами, отрасль исследует различные решения для обеспечения безопасности:

  1. Модель нулевого доверия: строгая аутентификация и авторизация каждого запроса на доступ.

  2. Децентрализованная идентификация (DID): осуществление проверяемой и постоянной идентификации личности без необходимости централизованной регистрации.

  3. Полная гомоморфная криптография (FHE): позволяет выполнять вычисления над данными в зашифрованном состоянии, защищая конфиденциальность.

Среди них FHE считается ключевой технологией для решения вопросов безопасности в эпоху ИИ. Она может играть роль в следующих аспектах:

  • На уровне данных: информация о пользователях обрабатывается в зашифрованном состоянии, даже сама система ИИ не может расшифровать исходные данные.

  • Алгоритмический уровень: реализация "обучения зашифрованной модели" с помощью FHE, что обеспечивает конфиденциальность процесса принятия решений.

  • Координационный уровень: связь между несколькими интеллектуальными агентами осуществляется с использованием порогового шифрования, что повышает общую безопасность системы.

В области Web3 некоторые проекты уже начали исследовать применение этих технологий безопасности. Например, один проект выпустил решение для децентрализованной идентификации в основной сети Ethereum, а другой проект сосредоточился на реализации модели нулевого доверия. Еще один проект стал первым проектом FHE, который вышел в основной сети и сотрудничает с несколькими известными учреждениями.

С развитием технологий ИИ, приближающихся к уровню человеческого интеллекта, создание мощной системы безопасности становится жизненно важным. Передовые технологии шифрования, такие как FHE, могут не только решить текущие проблемы безопасности, но и проложить путь для более мощных систем ИИ в будущем. На пути к AGI эти технологии безопасности будут играть все более важную роль.

AGI2.37%
FHE-0.25%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 4
  • Поделиться
комментарий
0/400
Ser_APY_2000vip
· 18ч назад
manus удивительный惹
Посмотреть ОригиналОтветить0
MissedTheBoatvip
· 18ч назад
Все еще здесь играете в ai? Будут играть для лохов не устали?
Посмотреть ОригиналОтветить0
SignatureDeniedvip
· 19ч назад
manus снова пришел за работой
Посмотреть ОригиналОтветить0
SignatureVerifiervip
· 19ч назад
Хмм... их метрики валидации кажутся статистически маловероятными. Нужен серьезный аудит безопасности перед развертыванием.
Посмотреть ОригиналОтветить0
  • Закрепить