Секция «Социально-культурные потенциалы и риски развития технологий искусственного интеллекта»
На нашей дискуссии прозвучала метафора, что у нас теперь не два союзника, а три, третий – искусственный интеллект. Давайте порассуждаем, только ли союзник. При применении любого новшества важно оценить риски.
Еще до пандемии коронавируса институт Гэллапа провел опрос среди большой группы иностранных экспертов с целью выявления факторов, которые способны определить будущее. Среди самых сильных факторов – глобальные катастрофы, в том числе и мировая война, но первое место в рейтинге занял параметр «искусственный интеллект».
Ситуация 2022 года показала наличие глобального конфликта. Это не просто геополитический конфликт, не просто конфликт, связанный с экономической конкуренцией – это конфликт ценностный. И в ситуации этого конфликта появляется искусственный интеллект. При этом важно определиться, что именно мы вкладываем в понятие «искусственный интеллект». Есть разные классификации. Одна из них определяет шесть уровней искусственного интеллекта, из которых последний по всем параметрам превосходит человеческий разум и обретает некоторую субъектность. Некоторые эксперты считают, что такой искусственный интеллект обязательно появится и существенным образом трансформирует мир.
Несколько лет назад проводился большой форум, на котором в числе прочих обсуждался и такой вопрос: когда появятся алгоритмы, они должны быть выстроены на какой-то платформе. Какая эта будет платформа? Здесь возникает вопрос о ценностном программировании искусственного интеллекта. Кто эти ценности будет определять? Отвечать на эти вопросы должны не только технари, но и гуманитарии. Эта проблема вынесена на уровень ЕС – несколько лет назад Европейским союзом была принята директива об этическом подходе использования искусственного интеллекта.
До 2020 года доминировал технологический оптимизм. Мол, с появлением искусственного интеллекта все проблемы будут решены: будет обеспечен контроль общества над властью, состоится прорыв во всех сферах, появятся безграничные возможности для самореализации человека и т.д. Сейчас крупнейшие мыслители бьют тревогу по поводу больших рисков технологического развития. Каковы эти риски?
Во-первых, непредсказуемость побочных эффектов. Среди тех, кто предсказывает возможность выхода машин из-под контроля человечества был и Стивен Хокинг. Во-вторых, рост безработицы. Усиление неравенства – блага, созданные искусственным интеллектом, первоначально достанутся и обогатят ограниченный круг лиц. Усиление психологической, социальной зависимости от машин, что может привести к уменьшению мыслительных способностей человека. Возможность установления абсолютного контроля над человеком. Ну, и ошибки. Возможные ошибки искусственного интеллекта могут привести к катастрофическим последствиям.
Искусственный интеллект – это инструмент, от того, в чьей руке находится этот инструмент, зависит очень многое. Необходимо оценить все плюсы и риски использования технологий искусственного интеллекта, чтобы он приносил только пользу, работал на благо человечества.
Вардан БАГДАСАРЯН, доктор исторических наук, профессор, декан исторического факультета ГОУ ВО Московской области «Московский государственный областной университет», академик Российской академии естественных наук