Искусственный интеллект стал темой ноября в рамках Года науки и технологий. Внимание аудитории привлекла статья, опубликованная на страницах интернет-издания «Экономика сегодня».
На вопросы корреспондента издания ответил ведущий специалист Центра нейротехнологий ЮФУ, доктор биологических наук, профессор физического факультета Борис Владимирский.
В числе новейших исследований и тенденций в сфере ИИ профессор назвал разработки по консолидации человека и искусственного интеллекта в единую систему. Подобные исследования помогут искусственному интеллекту функционировать, применяя человеческую интуицию и здравый смысл. По словам учёного, такого рода опыты проводятся в НИТЦ нейротехнологий при ЮФУ.
«Системы управления и гибридный интеллект» – под таким названием реализуется один из значительных и серьёзных проектов ЮФУ.
Союз естественного и искусственного интеллектов предоставит дополнительные возможности в сфере изучения и устранения заболеваний человеческого мозга.
Профессор рассказал также, что в ходе воссоединения искусственного интеллекта и интерфейса «мозг-компьютер» будет происходить преобразование электрической активности мозга в действия – без физических усилий человека.
В интервью отмечается, что ЮФУ является обладателем гранта Минобрнауки РФ на получение и разработку образовательных программ бакалавриата и магистратуры по ИИ.
Отвечая на вопрос о возможном «чипировании» и «восстании роботов», Борис Михайлович отметил, что даже среди известных учёных есть те, кто целенаправленно нагоняют панику и дезинформируют аудиторию. По мнению профессора, возможности обратить разумного человека в машину или в деталь от неё – не существует.
Этический кодекс ИИ также стал актуальным вопросом интервью. Профессор Владимирский считает необходимой и правильной мерой определение этических принципов для искусственного интеллекта. Все это поможет нейросетям принимать правильные решения в сложных ситуациях.
Завершая беседу, Борис Михайлович выразил уверенность, что в ближайшем будущем ИИ будет кардинально влиять на течение нашей жизни.