Деструктивное поведение и эмоциональные нарушения: опасных школьников будет выявлять искусственный интеллект

О том, возможно ли это на практике и как это повлияет на детей, «КВ» рассказали эксперты в области психологии, юридического права и современных технологий.

news_top_970_100
Автор фото: pixabay.com

В школах России начнут выявлять опасных учащихся с деструктивным поведением с помощью искусственного интеллекта (ИИ). Он будет анализировать их письменные работы. На программу выделят 1,7 млрд рублей из бюджета. Об этом пишут «Ведомости».

Новую разработку связывают с участившимися случаями насилия в учебных заведениях. В начале мая этого года в казанской гимназии № 175 один из выпускников совершил нападение на учеников и учителей, его жертвами стали семь детей и два педагога. Через всего пять месяцев 18-летний молодой человек также совершил вооруженное нападение на Пермский госуниверситет, убив восемь человек и многих ранив.

Сможет ли искусственный интеллект действительно помочь в выявлении детей с социально опасным поведением и насколько эти действия правомерны в отношении детей — читайте в нашем материале. 

Лучше живого общения еще ничего не придумано 

Искусственный интеллект в выявлении школьников с социально опасным поведением нужно не брать за основу, а использовать лишь как вспомогательное средство, отметил доцент института психологии и образования КФУ, кандидат психологических наук Рамиль Гарифуллин.

 «Я не против таких оценок, но необходимо признать, что опасные дети — это дети не с интеллектуальными, а с эмоционально-волевыми нарушениями. Это расстройство выявляется только в процессе живого общения, в процессе специальных групповых встреч по определенной программе», — утвердил доцент.

Для таких встреч нужны специальные психологические тренинги, с помощью которого учитель сразу определит ребенка с деструктивным поведением. Лучше социально-психологического общения по специализированной программе пока еще ничего не придумано, подчеркнул Гарифуллин.

Он отметил, что нужно оставаться корректными с детьми. Если распространять информацию об учащихся с опасным поведением, то нарушается определенная этика и права ребенка.

«Есть такое понятие, как педагогическая тайна. Есть устав школы, права учащихся, права преподавателей. Надо учить педагогов диалогам и общению, при которых учителя, зная немного психологию, будут выявлять группы риска. Не надо говорить, что выявляем опасных учеников, а именно выявляем группу риска, вероятностную группу», — обозначил доцент.


Для обработки письменных работ детей, нужны согласия нескольких лиц

С юридической точки зрения для того, чтобы ИИ мог обработать работу ребенка, обязательно требуется согласие нескольких лиц. Сюда входят и учитель, и законный представитель ребенка — родитель или опекун, рассказал адвокат Артем Хромин.

«Учитель может возражать против направления работ детей искусственному интеллекту. В том случае, если будут затрагиваться интересы ребенка, касаемо его девиантного поведения для дальнейшего помещения в какое-либо специализированное учреждение, органы опеки также могут выступать в качестве гаранта прав ребенка», — отметил адвокат.

Загвоздка в том, что искусственный интеллект самостоятельно обрабатывает информацию, которую ему выдали. Если, например, попросить ребенка написать сочинение о самом страшном сне или воспоминании, то ИИ может найти здесь девиантное поведение, заключил Хромин. 


Подобные разработки требуют много лет исследований

С Хроминым согласен и директор ИТИС КФУ Михаил Абрамский. Он подчеркнул, что искусственный интеллект обучается на определенных моделях и данных, но откуда машине брать данные о деструктивных детях и их поведении — вопрос.

«Нужны длительные исследования, нужно найти какую-то классификацию, научить искусственный интеллект предугадывать поведение. Очень большой вопрос стоит над трактовкой и проверкой адекватности и применимости полученных искусственным интеллектом выводов», — отметил Абрамский.

В то же время, эксперт рассказал, что такие программы нужны. Необходимо искать какие-то альтернативные, новые способы выявления опасных наклонностей по разным факторам. И использование цифровых методов только улучшит исследования.

«Лучше, чтобы такие разработки были, которые требовали бы еще дополнительной работы человека, чем ее вообще бы не было», — обозначил директор ИТИС.

Таким образом, для ведения этой программы требуется много бумажной волокиты, и выводы ИИ могут быть не до конца правильными, считают наши эксперты. 

Как сообщают «Ведомости», на создание программного обеспечения для такого анализа в бюджете нацпроекта «Образование» предусмотрено 1,7 млрд рублей, следует из пояснительной записки к проекту федерального бюджета на 2022 г. и на плановый период 2023–2024 гг.

Проект бюджета утвержден правительством 21 сентября, его внесение в Госдуму планируется до 1 октября. Расходы на создание ПО включены в федеральный проект «Социальная активность». В 2022–2023 гг. на разработку технологии анализа письменных работ учащихся планируется направить по 551,1 млн руб. ежегодно, в 2024 г. — 555,7 млн руб.

news_right_column_240_400