Опасности использования ИИ в образовании, по мнению Натальи Касперской

Наталья Касперская, президент группы компаний InfoWatch и председатель Ассоциации разработчиков программных продуктов «Отечественный софт», выразила опасения по поводу применения искусственного интеллекта в образовании. В эфире радио «Комсомольская правда» она отметила, что генеративный ИИ может негативно сказаться на формировании критического мышления у детей.

«Дети обращаются к ИИ, и в результате отключают свою голову, ведь проще получить готовый ответ. Они зачастую не понимают суть вопроса, просто передавая информацию учителю. Это может привести к тому, что мы вырастим поколение, не способное к самостоятельному мышлению», — сказала Касперская.

Она подчеркнула, что современные ИИ-системы могут давать неправильные ответы, в то время как для обучения необходима высокая точность. Тем не менее, школьники все чаще используют нейросети, не вникая в материал. Касперская добавила, что ИИ может быть полезен в технических задачах, таких как поиск утечек данных, однако его использование в образовании и госуправлении недопустимо. Ранее сообщалось, что учителя всё чаще выявляют задания, выполненные с помощью ИИ.

Вопрос-ответ

Почему Наталья Касперская считает искусственный интеллект (ИИ) опасным для образования?

По ее мнению, использование генеративного ИИ в обучении может негативно повлиять на развитие критического мышления у детей. Школьники привыкают получать готовые ответы, не вникая в суть вопроса, что может привести к формированию поколения, неспособного мыслить самостоятельно.

Какую основную проблему современных ИИ-систем в контексте обучения она выделяет?

Наталья Касперская подчеркивает, что ИИ-системы могут генерировать неточные или полностью неверные ответы. Для образовательного процесса требуется высокая точность информации, которой современные нейросети не всегда могут обеспечить.

В каких сферах, по мнению Касперской, применение ИИ оправдано, а в каких — нет?

Она считает, что ИИ может быть полезен для решения технических задач, например, для поиска утечек данных. Однако его использование в таких критически важных областях, как образование и государственное управление, она считает недопустимым.

Понравилась статья? Поделиться с друзьями: