Справка составлена в рамках работы Земского Собора по подготовке Постановления №2 по четвертому вопросу повестки дня на основе интервью с президентом группы InfoWatch Натальей Касперской. РИА Новости, 06.10.2021
Источник: https://ria.ru/20211006/kasperskaya-1753227872.html?ysclid=l5gy3di1t7569514499
Сейчас в России навязываются возможности всё большего применения биометрии для идентификации людей. Биометрия всё чаще используется для идентификации граждан в различных сферах жизни: для получения госуслуг и банковских услуг, онлайн-сдачи сессии в вузах, удалённого заключения договоров связи, оплаты проезда на транспорте и пр.
Биометрия навязывается так упорно, что у многих возникает очарование и некритичное представление, что это удобно, безопасно, «прогрессивно», непреодолимо, с этим нужно согласиться, что нет другого выхода. При этом нам внятно никто не объясняет, а зачем вообще нужно использование биометрии?
Необходимо знать, что биометрические данные являются «сверхчувствительными»: вы не можете при утечке или компрометации данных сменить свое лицо, сетчатку, фигуру, отпечатки пальцев, форму ушей. Биометрические данные являются неотъемлемой частью человека, они у вас одни на всю жизнь, и их достаточно украсть один раз и навсегда.
Рассмотрим, в чем заключаются опасности при внедрении биометрии.
1. При внедрении биометрии главная опасность заключается в том, что нет никаких особых способов защиты биометрических данных и их верификации. Граждане сдают отпечатки пальцев и фото лиц, их лица снимают без их ведома и согласия на улицах, на транспорте, в офисах и торговых центрах, а потом такую информацию может кто-то «слить», украсть, перехватить и использовать в крупных сделках с недвижимостью, при управлении счётом в банке, при проходе на закрытые объекты и тому подобном.
Необходимо понимать, что биометрические данные хранятся в обычных базах данных, и работают с ними сисадмины и айтишники, которые получают не очень высокие зарплаты и сами назначают права доступа, то есть могут настроить себе доступ любого (!) уровня.
За 2020 год только в российском банковском сегменте случаев утечек данных было более 200 миллионов, а утекших записей – персональных и платёжных данных – 486 миллионов. Количество утечек данных во всех сферах постоянно и неуклонно растёт. Это не технологическая проблема, а проблема злоупотреблений – большинство утечек происходит из-за человеческого фактора.
2. Нельзя не учитывать технологии подделок deepfake и аудиофейки. В настоящий момент не существует надёжных технологий распознавания таких фейков. Систем защиты против deepfake нет.
3. Система биометрической идентификации – это система искусственного интеллекта, у которой не бывает стопроцентного качества. Ей свойственны ошибки первого и второго рода: она может распознать неправильный объект как правильный или не пропустить правильный объект. То есть всегда остаётся вероятность, что система вас не распознает или распознает вас как кого-то другого, на кого вы похожи.
Разработчики хвалятся показателями качества распознавания лиц в 97-99%, при этом не озвучивая, что ошибки первого или второго рода таятся в оставшихся 1-3%. В реальности это означает, что из 18 миллионов человек 180 тысяч лиц будут не распознаны или спутаны с кем-то. Если применять биометрию широко, то и ошибок будет сотни тысяч или миллионы.
4. При переходе на электронные услуги и электронные версии документов возможна электронная подделка документов, например, в результате целенаправленного взлома. Такая подделка проще, и её легче скрыть: если документы подделывает айтишник с высокими правами доступа, то он и журналы своего доступа тоже подделывает.
Кроме того, все форматы и носители данных живут не более 15-20 лет. Например, сейчас огромная проблема прочесть дискеты 1990-х годов. Так же остаётся проблема отключения электричества в случае ЧП, катастроф, войн.
5. Риски использования технологии искусственного интеллекта с точки зрения этики, техники, права.
Первая проблема: доверять ли решениям искусственного интеллекта и передавать ли ИИ право автономного принятия решений. В случае ошибки ИИ ответственность за нанесение вреда здоровью человеку или в случае его смерти ни система, ни разработчик, ни эксплуатант не несут. Это касается медицинских систем диагностики, транспорта-беспилотников и т.д.
Вторая проблема: нужно ли наделять искусственный интеллект субъектностью, предоставлять ему какие-то права? Искусственный интеллект – это робот, раб человека. И если мы предоставим ему хоть какие-то «права», мы не сможем справиться с возможными неприятными последствиями «расчеловечивания» человека.
Третья проблема: умышленное нанесение вреда человеку с помощью ИИ. Должно быть прямо постулировано, что искусственный интеллект не должен вредить человеку, должен работать исключительно на благо человека. Нельзя использовать ИИ для дискриминации людей – по любым основаниям, дохода, возраста, расы, пола, здоровья и так далее – потому что по Конституции РФ мы все равны.
Четвёртая проблема – проблема прозрачности ИИ. Алгоритмы принятия решений и политики ИИ, заложенные в систему ИИ разработчиками, должны быть открыты и прозрачны. При любом взаимодействии с ИИ нужно ясно информировать пользователя и все решения ИИ нужно маркировать «сделано искусственным интеллектом». Чтобы понимать, кем это решение было принято – человеком или машиной.
Миллионы операций нейронной сети нельзя проверить вручную, невозможно понять, на основе чего принято то или иное решение. Сейчас в большинстве случаев даже разработчик не может этого объяснить и обосновать. Это так называемая проблема «черного ящика» искусственного интеллекта, которая в свою очередь порождает проблему доверия к решениям ИИ и оспаривания их.
Сейчас решение ИИ в отношении людей, как правило, имеет статус финальности, то есть нет способа оспорить решение ИИ.
6. Риск структурный: в стране появится новая теневая власть, а именно, власть людей, создающих и использующих цифровые системы – айтишников, цифровых клерков, их начальников. И как следствие – коррупция и компрометация данных, шантаж на основе слежки, сбор компрометирующих данных, гарантированные непредвиденные цифровизаторами мощные социальные эффекты.