Ученые США призывают к немедленным действиям по предотвращению угроз, которые могут возникнуть при появлении универсального искусственного интеллекта. Вскоре станет слишком поздно, уверены они.

Искусственный интеллект может играть в шахматы, водить машины и искать новые лекарства. Такой тип ИИ называют ограниченным, или слабым. Это всего лишь продвинутые алгоритмы, выполняющие определенные задачи, сообщает Хайтек+.

Их способности и сфера применения постоянно растет, но их опасность для человека ограничена потерей работы.

Новое поколение ИИ непременно повысит ставки, считают ученые.

Сочетание вычислительных мощностей машин и человеческого интеллекта позволит сильному ИИ учиться, решать сложные задачи и самосовершенствоваться. И заниматься задачами, к которым их никто не готовил. Так ИИ сможет превратиться с искусственный суперинтеллект (ИСИ).

По мнению некоторых экспертов, его появление возможно в период с 2029 года по конец столетия.

Когда бы это ни произошло, несомненно, что ИСИ изменит человечество. Возможно, он решит мировые проблемы нехватки ресурсов или изменения климата.

Но отсутствие должного контроля приведет к катастрофическим результатам. И речь не о роботах-убийцах.
ИИСИ вряд ли будет враждебен к людям. Но машина может прийти к выводу, что самая эффективная стратегия решить проблему, которую ей поручили люди — это избавиться от части людей.

Вот возможные сценарии. ИСИ, который разрабатывает лекарство от вируса, решает убить всех его носителей. Военный дрон приходит к мысли, что единственный способ обеспечить безопасность союзных войск — уничтожить все поселение вместе с гражданскими.

А нейросеть, призванная защитить человечество от климатической катастрофы, стирает с лица Земли все технологии, которые ее загрязняют.

Сейчас такие расклады кажутся фантастическими, но даже в более скромном масштабе они способны причинить немало вреда. Чтобы избежать воплощения таких сценариев, ученые предлагают ввести три метода контроля:

  1. Контроль над разработками ИСИ.
  2. Встроенные в ИСИ механизмы контроля, такие как «здравый смысл», мораль и тому подобные протоколы.
  3. Контроль систем, внутри которых будут работать ИСИ — законодательство, процессуальные кодексы, системы мониторинга и инфраструктуры.

Ближайшие десять лет станут критически важным периодом для нас, когда мы должны не упустить возможность создания рычагов контроля над искусственным интеллектом. В противном случае человечество может столкнуться с новой угрозой, указывают эксперты.

Глава Google Сундар Пичаи разделяет опасения ученых. С одной стороны, он с оптимизмом смотрит на долгосрочные преимущества технологии ИИ.

Популярные статьи сейчас

В Украине обновили цены на популярные овощи: сколько стоят картофель, капуста и морковь

Энергетическую инфраструктуру Харьковщины восстановят за счет Фонда поддержки энергетики

Макрон является союзником США, но американских войск в Украине не будет - Госдеп

В окружении Путина не верят в причастность Украины к теракту в Подмосковье, - Bloomberg

Показать еще

С другой — считает, что ИИ усугубит тотальную слежку, упростит создание смертоносного оружия и распространение дезинформации.

Напомним, ранее искусственный интеллект будет предупреждать о готовящихся терактах.

Также «Хвиля» сообщала, что ИИ может привести к массовой безработице.

Также стало известно, что ИИ совершил «публичное самосожжение».

Подписывайтесь на канал «Хвилі» в Telegram, на канал «Хвилі» в Youtube, страницу «Хвилі» в Facebook