Поддержать команду Зеркала
Беларусы на войне
  1. Лукашенко много лет молчал об одном важном факте из своей биографии. Вот что нам удалось узнать
  2. Известны имена четырех политзаключенных женщин, которые вышли по помилованию к 9 мая
  3. «Люди должны сами решить, остаться ли в стране или уехать». В демсилах прокомментировали очередное освобождение политзаключенных
  4. Власти пересмотрели новые правила сканирования товаров на кассах, на которые массово жалуются продавцы и покупатели
  5. «Вясна»: Вышел на свободу бывший пресс-секретарь А1 Николай Бределев
  6. Пауза США в поставках оружия Украине укрепляет представление Владимира Путина о «теории победы» — ISW
  7. Лукашенко помиловал 16 человек, осужденных за «различные преступления, в том числе экстремистской направленности»
  8. Лукашенко обвинил Латушко в намерении сжечь лидеров протеста в 2020 году. Тот ответил: «Тут диагноз ставить надо»
  9. «Я не собираюсь годами тут бороться. Вижу решение в месяцах». Большое интервью «Зеркала» с Сергеем Тихановским
  10. «Эта цитата вырвана из контекста». Келлог опроверг слова Лукашенко
  11. Продаете продукты со своего огорода? Власти подготовили для вас налоговые изменения
  12. ВОЗ призвала резко повысить цены на три товара. Это поможет предотвратить 50 млн преждевременных смертей
  13. «Шутки в сторону». МАРТ пригрозил торговле закрытием магазинов за завышение цен


Соучредитель Microsoft Билл Гейтс прокомментировал открытое письмо ИТ-экспертов, призвавших прекратить обучение нейросетей из-за рисков для человечества. Он считает, что такой шаг не решит проблемы, а людям лучше сосредоточиться на том, как использовать разработки в области искусственного интеллекта (ИИ), пишет Reuters.

Билл Гейтс. Фото: Reuters

Как сообщает агентство, Билл Гейтс впервые публично прокомментировал открытое письмо главы SpaceX Илона Маска, соучредителя Apple Стива Возняка и еще более 1100 экспертов ИТ-отрасли.

Напомним, авторы обращения недавно призвали приостановить обучение нейросетей более мощных, чем GPT-4, так как это может представлять угрозу для всего человечества.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — говорится в письме.

Там также указывается, что лаборатории и независимые эксперты должны использовать паузу в шесть месяцев для совместной разработки и внедрения набора общих протоколов, которые должны гарантировать безопасность.

Билл Гейтс с этим не согласен — он заявил, что приостановка обучения нейросетей не решит проблемы, с которыми человечеству предстоит столкнуться в будущем. По его словам, людям стоит сосредоточиться на том, как лучше всего использовать разработки в области ИИ, к тому же паузу в развитии таких технологий будет сложно обеспечить на уровне всех стран мира.

— Я действительно не понимаю, кто, по их мнению, может остановиться, согласится ли на это каждая страна в мире и вообще зачем это нужно делать, — добавил Гейтс.

Миллиардер высказал мнение, что нейросети обладают огромными преимуществами, но эксперты должны определить «области, представляющие сложность» в их развитии.

Напомним, в конце января Microsoft объявила о многолетних и многомиллиардных инвестициях в лабораторию искусственного интеллекта (ИИ) OpenAI, которая среди прочего создала чат-бот ChatGPT. Microsoft не назвала конкретную сумму, но СМИ сообщали об объеме в 10 млрд долларов.

ChatGPT — это чат-бот, основанный на последней версии языковой модели GPT. Он был запущен в конце ноября 2022 года, а спустя всего неделю после запуска число его пользователей достигло 1 млн.

Такая популярность, по словам разработчиков, объясняется тем, что ChatGPT обучен «отвечать на последовательные вопросы, признавать свои ошибки, оспаривать некорректные вводные данные и отклонять неуместные вопросы».

В Сети можно найти много примеров использования ChatGPT: от составления резюме или инвестиционного портфеля до написания приветственного сообщения в приложении для знакомств или речи в Конгрессе США, от стихов до помощи в написании программного кода.