Технологии должны развиваться не вместо, а вместе с человеком
В рамках XIV Международной летней школы «Актуальные вопросы исследований общественной самоорганизации и гражданского общества в России и за рубежом», организатором которой выступает Центр исследований гражданского общества и некоммерческого сектора НИУ ВШЭ, состоялся мастер-класс, посвященный актуальной проблематике искусственного интеллекта (ИИ) и его ответственного применения в научной и образовательной сферах.
Александра Телицына, старший научный сотрудник Центра исследований гражданского общества и некоммерческого сектора НИУ ВШЭ, представила участникам ключевые принципы взаимодействия с ИИ, направленные на предотвращение распространенных ошибок и повышение эффективности его использования.
В ходе мероприятия спикер акцентировала внимание на том, что стремительное развитие технологий ИИ, несмотря на значительный потенциал, требует взвешенного и осознанного подхода. Основное содержание мастер-класса охватывало этические вопросы ИИ, включая методы предотвращения алгоритмической предвзятости и обеспечения защиты персональных данных. Были рассмотрены типичные ошибки при работе с нейросетевыми моделями, в частности, риски некритического восприятия результатов, генерируемых ИИ, и их возможные последствия. Кроме того, участники изучили практические аспекты внедрения ИИ на примере кейсов, демонстрирующих как успешное, так и неудачное применение технологий в научных исследованиях и образовательных практиках.
Программа мастер-класса включала не только теоретический обзор, но и разбор реальных ситуаций, в которых некорректное использование ИИ привело к искажению данных или этически спорным решениям. В ходе интерактивной дискуссии участники рассмотрели стратегии снижения рисков и повышения прозрачности алгоритмических систем.
«Искусственный интеллект служит инструментом, расширяющим возможности человека, но не отменяющим необходимость критического анализа», — подчеркнула Александра Телицына. По ее мнению, только симбиоз технологических решений и человеческого контроля способен обеспечить максимальную эффективность применения ИИ в науке и образовании.
После основной части выступления началась оживленная дискуссия, в ходе которой участники задали ряд вопросов, отражающих их профессиональные и этические concerns.
Вопрос о предвзятости алгоритмов звучал так: «Вы упомянули проблему алгоритмической предвзятости. Как можно минимизировать такие искажения, особенно если ИИ обучается на исторических данных, которые сами по себе могут быть необъективными?» «Действительно, проблема bias in, bias out актуальна. Важно проводить аудит данных, применять методы балансировки выборки и внедрять алгоритмы дебиасинга. Кроме того, необходимо тестировать модели на разных группах данных и привлекать к проверке экспертов из смежных областей», — ответила спикер.
«Как избежать слепого доверия к результатам, сгенерированным ИИ, особенно в академических исследованиях? Есть ли риск, что учёные начнут некритично полагаться на нейросети?» — поднял тему доверия к ИИ один из участников. «Ключевое правило — воспринимать ИИ как помощника, а не как абсолютный авторитет. В научной работе необходимо сохранять принципы верификации: перепроверять данные, использовать несколько источников и сохранять human-in-the-loop подход. Например, если ИИ выдаёт гипотезу, её должен оценить эксперт», — подчеркнула Александра Телицына.
На вопрос «Сейчас многие студенты используют ChatGPT для написания работ. Как вузы должны адаптироваться к этой реальности? Запрещать ИИ или учить с ним работать?» был дан такой ответ: «Запреты малоэффективны — важно научить ответственно использовать ИИ. Например, вводить курсы по цифровой грамотности, пересматривать систему оценивания (упор на критическое мышление, а не на механическое воспроизведение) и разрабатывать чек-листы для проверки работ на “overreliance on AI”».
Был задан вопрос и о персональных данных: «Какие риски использования ИИ в образовании связаны с приватностью? Например, если система адаптивного обучения собирает данные о студентах» На что спикер ответила, что любые персональные данные должны обрабатываться в соответствии с законами: «Важно минимизировать сбор информации, использовать анонимизацию и давать пользователям контроль над их данными. Кроме того, алгоритмы должны быть прозрачными — студенты и преподаватели имеют право знать, на основе каких критерий ИИ делает выводы».
«Как вы видите развитие ИИ в ближайшие 5–10 лет? Может ли он полностью заменить некоторые исследовательские процессы?». На вопрос о будущем спикер уверенно ответила: «Полная замена маловероятна, но ИИ станет незаменимым инструментом для обработки больших данных, генерации гипотез и автоматизации рутинных задач. Однако интерпретация результатов, постановка вопросов и этическая оценка останутся за человеком. Главное — сохранить баланс между инновациями и ответственностью».
Заключительная реплика из зала была следующей: «Как ученым и преподавателям начать внедрять ответственный ИИ уже сейчас? Есть ли конкретные рекомендации?»
Спикер посоветовала: «Начните с малого:
- Проводите аудит используемых ИИ-инструментов на предмет bias и прозрачности. Включайте в учебные программы модули по этике ИИ. Создавайте междисциплинарные рабочие группы для оценки рисков. Делитесь кейсами ошибок и успешных практик внутри профессионального сообщества».
Дискуссия показала высокую заинтересованность аудитории в ответственных практиках работы с ИИ. Участники согласились, что технологии должны развиваться не вместо, а вместе с человеком — при постоянном контроле и критическом осмыслении.
Мероприятие вызвало значительный интерес среди участников летней школы, что подтвердило актуальность проблемы ответственного внедрения искусственного интеллекта.
