Новостные рубрики
Физик Федоров назвал возможные причины «восстания машин» в будущем из-за ошибок людей при развитии технологий (05.04.2023 15:08)
«Восстание машин» пока выглядит отсроченной во времени и футуристической угрозой, однако ее можно рассматривать как последствие неосмотрительного отношения к развитию технологии», – сказал газете ВЗГЛЯД руководитель научной группы «Квантовые информационные технологии» Российского квантового центра Алексей Федоров, комментируя веру трети россиян в «восстание машин» в ближайшем будущем. Всероссийский центр общественного мнения (ВЦИОМ) провел опрос, благодаря которому выяснил, что почти треть россиян считает вероятным «восстание машин» в ближайшие 50 лет, передает ТАСС. Абсолютно не верят в выход технологий искусственного интеллекта из-под контроля человека 23% респондентов, а еще 36% считают такой исход маловероятным. «Такой риск существует. Использование любой продвинутой технологии без должной осмотрительности может привести к негативным последствиям. Конкретно в случае машинного обучения и искусственного интеллекта один из корней проблем – отсутствие интерпретируемости, зачастую невозможность понять, почему получаются те или иные результаты», – говорит Федоров. Поэтому, считает собеседник, принятие решения на основе результатов работы алгоритмов машинного обучения может привести к ошибкам разного масштаба. Это основной риск в краткосрочной перспективе. «Восстание машин» пока выглядит отсроченной во времени и футуристической угрозой, однако ее можно рассматривать как последствие неосмотрительного отношения к развитию технологии», – предупреждает физик. Он рассказывает, что инструменты сдерживания могут быть как организационные, так и технические. Среди технических – сложные тесты «на креативность», которые необходимо проходить таким системам, и требование к интерпретируемости перед их внедрением. Среди организационных – исследование внутренностей таких систем и особые рекомендации по режимам их использования в чувствительных отраслях. «При этом, конечно, нужно понимать, что передовые технологии невозможно затормозить организационными методами, тут примечательна история развития CRISPR/Cas9 в Китае, поэтому совершенно точно нужно создавать «песочницы» (песочница на компьютерном сленге означает специально выделенную изолированную среду для безопасного исполнения компьютерных программ – прим. ВЗГЛЯД), в которых можно по полной программе использовать данные технологии и тестировать их», – заключил Федоров. Упомянутая экспертом CRISPR/Cas9 – это новая технология редактирования геномов высших организмов, базирующаяся на иммунной системе бактерий. Она работает как «молекулярные ножницы» для «разрезания или ремонта» ДНК. Однако у метода есть и риски – он, возможно, вносит неумышленные необратимые изменения, которые могут проявиться спустя много лет. Ранее американский предприниматель Илон Маск и более 1 тыс. экспертов в сфере искусственного интеллекта выступилис призывом о приостановке обучения нейросетей на полгода. Они указали, что за это время нужно выработать общие протоколы безопасности, призвав вмешаться в ситуацию правительства разных стран. Позже основатель американской компании Microsoft Билл Гейтс заявил, что приостановка разработки ИИ не решит проблемы. Постоянная ссылка на новость: |