В школах России начнут выявлять опасных учащихся с деструктивным поведением с помощью искусственного интеллекта (ИИ). Он будет анализировать их письменные работы. На программу выделят 1,7 млрд рублей из бюджета. Об этом пишут «Ведомости».
Новую разработку связывают с участившимися случаями насилия в учебных заведениях. В начале мая этого года в казанской гимназии № 175 один из выпускников совершил нападение на учеников и учителей, его жертвами стали семь детей и два педагога. Через всего пять месяцев 18-летний молодой человек также совершил вооруженное нападение на Пермский госуниверситет, убив восемь человек и многих ранив.
Сможет ли искусственный интеллект действительно помочь в выявлении детей с социально опасным поведением и насколько эти действия правомерны в отношении детей — читайте в нашем материале.
Лучше живого общения еще ничего не придумано
Искусственный интеллект в выявлении школьников с социально опасным поведением нужно не брать за основу, а использовать лишь как вспомогательное средство, отметил доцент института психологии и образования КФУ, кандидат психологических наук Рамиль Гарифуллин.
«Я не против таких оценок, но необходимо признать, что опасные дети — это дети не с интеллектуальными, а с эмоционально-волевыми нарушениями. Это расстройство выявляется только в процессе живого общения, в процессе специальных групповых встреч по определенной программе», — утвердил доцент.
Для таких встреч нужны специальные психологические тренинги, с помощью которого учитель сразу определит ребенка с деструктивным поведением. Лучше социально-психологического общения по специализированной программе пока еще ничего не придумано, подчеркнул Гарифуллин.
Он отметил, что нужно оставаться корректными с детьми. Если распространять информацию об учащихся с опасным поведением, то нарушается определенная этика и права ребенка.
«Есть такое понятие, как педагогическая тайна. Есть устав школы, права учащихся, права преподавателей. Надо учить педагогов диалогам и общению, при которых учителя, зная немного психологию, будут выявлять группы риска. Не надо говорить, что выявляем опасных учеников, а именно выявляем группу риска, вероятностную группу», — обозначил доцент.
Для обработки письменных работ детей, нужны согласия нескольких лиц
С юридической точки зрения для того, чтобы ИИ мог обработать работу ребенка, обязательно требуется согласие нескольких лиц. Сюда входят и учитель, и законный представитель ребенка — родитель или опекун, рассказал адвокат Артем Хромин.
«Учитель может возражать против направления работ детей искусственному интеллекту. В том случае, если будут затрагиваться интересы ребенка, касаемо его девиантного поведения для дальнейшего помещения в какое-либо специализированное учреждение, органы опеки также могут выступать в качестве гаранта прав ребенка», — отметил адвокат.
Загвоздка в том, что искусственный интеллект самостоятельно обрабатывает информацию, которую ему выдали. Если, например, попросить ребенка написать сочинение о самом страшном сне или воспоминании, то ИИ может найти здесь девиантное поведение, заключил Хромин.
Подобные разработки требуют много лет исследований
С Хроминым согласен и директор ИТИС КФУ Михаил Абрамский. Он подчеркнул, что искусственный интеллект обучается на определенных моделях и данных, но откуда машине брать данные о деструктивных детях и их поведении — вопрос.
«Нужны длительные исследования, нужно найти какую-то классификацию, научить искусственный интеллект предугадывать поведение. Очень большой вопрос стоит над трактовкой и проверкой адекватности и применимости полученных искусственным интеллектом выводов», — отметил Абрамский.
В то же время, эксперт рассказал, что такие программы нужны. Необходимо искать какие-то альтернативные, новые способы выявления опасных наклонностей по разным факторам. И использование цифровых методов только улучшит исследования.
«Лучше, чтобы такие разработки были, которые требовали бы еще дополнительной работы человека, чем ее вообще бы не было», — обозначил директор ИТИС.
Таким образом, для ведения этой программы требуется много бумажной волокиты, и выводы ИИ могут быть не до конца правильными, считают наши эксперты.
Как сообщают «Ведомости», на создание программного обеспечения для такого анализа в бюджете нацпроекта «Образование» предусмотрено 1,7 млрд рублей, следует из пояснительной записки к проекту федерального бюджета на 2022 г. и на плановый период 2023–2024 гг.
Проект бюджета утвержден правительством 21 сентября, его внесение в Госдуму планируется до 1 октября. Расходы на создание ПО включены в федеральный проект «Социальная активность». В 2022–2023 гг. на разработку технологии анализа письменных работ учащихся планируется направить по 551,1 млн руб. ежегодно, в 2024 г. — 555,7 млн руб.