Рост КИ: опасность или новая эра?

Рост КИ: опасность или новая эра?

Вопрос о достижении так называемой технической или искусственной сингулярности, когда искусственный интеллект превзойдет человеческий, привлекает все больше внимания. Это событие может привести к тому, что развитие искусственного интеллекта выйдет из-под человеческого контроля и начнет стремительно самоусовершенствоваться.

Дебаты о возможности КИ-сингулярности

Существуют споры о том, возможна ли КИ-сингулярность и если возможна, то насколько скоро это может произойти. Если такое событие произойдет, последствия будут непредсказуемы, и есть опасения, что появление суперинтеллекта, или так называемого AGI (Artifical General Intelligence), могло бы привести к самоуничтожению человечества.

Оценки и прогнозы экспертов

Эксперты, такие как CEO компании SingularityNET, специализирующейся на КИ и блокчейне, Бен Гёртцель, полагают, что сингулярность уже может наступить в ближайшие три-восемь лет. Гёртцель ссылается на крупномасштабные языковые модели, например, Metas Llama 2 и Open AIs GPT-4, которые он считает значительным прогрессом в этой области.

Рост популярности КИ и вклад в AGI

Бурное обсуждение и востребованность технологий искусственного интеллекта, которое особенно усилилось из-за внимания к ChatGPT, привело к притоку инвестиций и усилий в эту отрасль. Бен Гёртцель отмечает, что это привлекает большое количество талантливой молодежи к работе над созданием AGI.

Призывы к приостановке разработок в сфере КИ

К возросшему интересу к ускоренному развитию КИ технологий отозвались предприниматели и специалисты мира технологий, включая таких известных личностей, как Илон Маск и Стив Возняк. В марте 2023 года они были среди тысячи подписантов открытого письма, в котором требовалась приостановка развития КИ на полгода для избежания потери цивилизационного контроля.

Илон Маск и поиск путей обеспечения безопасности КИ

Илон Маск, который уже давно выступает с предостережениями о возможных опасностях, которые несет КИ, основал свою компанию xAI именно с целью исследования безопасности искусственного интеллекта. Он предполагает, что появление AGI может произойти уже к 2029 году, и его компания должна сосредоточиться на безопасности КИ.

Заключение и перспективы развития искусственного интеллекта

Обсуждение вокруг искусственного интеллекта и AGI продолжает набирать обороты, и это нельзя игнорировать. Важно отслеживать развитие технологий и обсуждения между экспертами, предпринимателями и широкой общественностью, чтобы понять возможные пути развития событий в этой динамично меняющейся сфере технологий.

Комментарии

Отлично! Вы успешно зарегистрировались.

Welcome back! You've successfully signed in.

You've successfully subscribed to GPTalk | AI Новости.

Проверьте свою электронную почту для личной ссылки для входа.

Ваша платежная информация была обновлена.

Ваш счет не был обновлен.