OpenAI спонсирует White Hat хакеров

OpenAI спонсирует White Hat хакеров

На сегодняшний день компания OpenAI, один из ведущих разработчиков искусственного интеллекта (ИИ) в США, активно исследует проблему контроля за системами ИИ, которые превосходят человека по умственным способностям. В рамках программы «Superalignment Fast Grants» OpenAI анонсировала предоставление грантов на общую сумму в $10 миллионов для финансирования исследований, призванных изучить методы оценки выходных данных новых систем ИИ и создания инструментов для определения ложной информации, которую может генерировать ИИ.

Проблемы оценки работы ИИ

Специалисты компании указывают на сложность оценки работы ИИ, способных генерировать миллионы строк сложного кода. Не всегда представляется возможным для человека надежно оценить безопасность выполнения программ, созданных ИИ.

Технические вызовы и решения

OpenAI выразила уверенность в том, что проблема контроля за суперумными ИИ решаема и новые исследователи могут внести значительный вклад в ее решение. Компания также акцентировала внимание на том, что важно разработать методы, позволяющие сохранять над ИИ человеческий надзор, несмотря на их высокий уровень интеллекта.

Как получить гранты от OpenAI

Гранты могут быть предоставлены как индивидуальным исследователям, так и некоммерческим организациям и академическим лабораториям. Кроме того, аспиранты могут подать заявку на стипендию от OpenAI на сумму $150 тысяч в рамках программы поддержки молодых ученых. Опыт работы над проблемами выравнивания систем ИИ не требуется, а заявки принимаются до 18 февраля.

Семь методов безопасности ИИ

Исследователи из OpenAI выделяют семь практик, которые помогают держать ИИ в безопасности и подотчетности. Теперь компания намерена финансировать дальнейшие исследования для поиска ответов на вопросы, возникшие после предыдущих исследований, и предлагает гранты на сумму от $10 тысяч до $100 тысяч для изучения последствий действий автономных AI систем и методов обеспечения их безопасности.

Агентные системы ИИ

Термин «агентный ИИ» относится к суперинтеллектуальным системам ИИ, способным выполнять широкий спектр действий и иногда действовать автономно для достижения сложных целей. Например, агентный личный помощник может помочь составить список покупок на Рождество и рекомендовать сайты или реальные магазины, где их можно приобрести.

Тем не менее, перед тем, как использовать агентные системы ИИ, исследователи из OpenAI настаивают на необходимости сделать их безопасными, сводя к минимуму их неудачи, уязвимости и виды злоупотреблений. Это особенно важно в свете новых исследований, показывающих, что киберпреступники могут использовать AI-платформу для бесед ChatGPT от OpenAI для совершения злонамеренных действий.

Объем содержания, наполненного ключевыми данными о практиках безопасности, перспективах и вызовах, связанными с развитием агентных ИИ, способствует SEO-оптимизации исследуемой статьи, делая ее востребованной среди широкого круга читателей, интересующихся последними достижениями в области искусственного интеллекта.

Комментарии

Отлично! Вы успешно зарегистрировались.

Welcome back! You've successfully signed in.

You've successfully subscribed to GPTalk | AI Новости.

Проверьте свою электронную почту для личной ссылки для входа.

Ваша платежная информация была обновлена.

Ваш счет не был обновлен.