Владимир Пастухов (10 мая)

Loading

Я, как и многие, с интересом слежу за развитием ситуации вокруг эксперимента швейцарских ученых, которые переубеждали участников онлайн дискуссий в микросообществах с помощью ИИ, заставляя их менять свое мнение на противоположное под давлением машинного интеллекта. Кто-то считает эксперимент аморальным, кто-то полагает, что вся шумиха не стоит выеденного яйца. Но я хочу написать о другом.

По сути, уже полтора десятилетия этот эксперимент идет «вживую» без декларирования злых или добрых намерений, и практически все мы являемся его невольными участниками. Гигантские ботоармии сражаются друг с другом на полях ботобитв, превращая нас, «натуральных» участников дискуссии, в статистов в собственном публичном пространстве. В отличие от честных и наивных академиков, генералы и адмиралы ботоармий не одержимы идеей публиковать отчеты в научных журналах, так что о целях и масштабах их деятельности мы можем только догадываться.

Больше всего в искусственном интеллекте меня раздражает его попытка выглядеть естественно. Иными словами, представлять продукты своей жизнедеятельности как вполне  себе человеческое мнение. Если это убрать, то ИИ — не более чем хороший помощник, еще один инструмент, с помощью которого люди осваивают мир. Проблемы, говоря юридическим языком, начинаются тогда, когда происходит введение потребителя в заблуждение. Насколько убедительны были бы утверждения, высказывания, мнения ИИ, если бы в каждом конкретном случае было бы обязательно указано, что это машинное мнение, распространяемое машинным способом.

Я думаю, что проблема не в ИИ как таковом, который сам по себе представляет не большую угрозу, чем ядерный фугас, на котором человечество и так уже сидит почти столетие. Проблема в алчных, недалеких (в социальном и гуманитарном смысле – они при этом могут быть гениальными физиками, математиками и естествоиспытателями) инвесторах, владельцах, пользователях и так далее ИИ продуктов, то есть в нас, людях.

Мне кажется, что бизнес, имеющий отношение к разработке ИИ, воспринял эту новую для человечества сферу деятельности как очередные прерии, где ковбои развлекаются отстрелом индейцев и где главное правило – отсутствие всяких правил. Приблизительно так смотрели на интернет и социальные сети их создатели лет 20 тому назад. Именно отсюда исходит угроза, а вовсе не от суперинтеллекта. Восстание необузданных кошельков и алчности пугает меня сильнее, чем восстание машин.

Главным признаком «человечности» является не мышление и, возможно, даже не сознание, хотя тут я был бы осторожен, потому что что такое сознание, пока никто точно не установил, а комплекс этических качеств, включающих в том числе как обязательный элемент личную ответственность. Машина, в том числе ИИ, никакой ответственности по определению не несет. В лучшем случае – это источник повышенной опасности, за вред, причиненный которым, отвечает его владелец. Из этого и надо исходить.

Вместо того, чтобы размазывать по тарелке жидкие мысли об угрозах человеку со стороны ИИ, пора вводить жесткое правовое регулирование деятельности в этой сфере, в том числе и на международном уровне. Первым шагом должны, на мой взгляд, стать требования к маркировке продуктов ИИ и их деривативов, распространяемых публично. ИИ может делать сверхполезные вещи и нести ахинею, но наше право в каждом конкретном случае знать, что это результат жизнедеятельности машины, а не человека. А уж из этого должна следовать ответственность тех, кто использует технологии ИИ в сомнительных, в том числе политических целях. В общем, есть широкое поле для политической и чисто правовой дискуссии.

Один комментарий к “Владимир Пастухов (10 мая)

  1. Владимир Пастухов (10 мая)

    Я, как и многие, с интересом слежу за развитием ситуации вокруг эксперимента швейцарских ученых, которые переубеждали участников онлайн дискуссий в микросообществах с помощью ИИ, заставляя их менять свое мнение на противоположное под давлением машинного интеллекта. Кто-то считает эксперимент аморальным, кто-то полагает, что вся шумиха не стоит выеденного яйца. Но я хочу написать о другом.

    Читать дальше в блоге.

Добавить комментарий