Я много раз писал о том, как спецслужбы все больше и больше проникают в нашу личную жизнь. Писал о том, что под видом борьбы с терроризмом города опутываются камерами, а телефоны начиняются жучками. А то, что операторов заставляют годами хранить все разговоры абонентов, известно из законов и постановлений.
Происходит это не только на просторах СНГ, просто на Западе это более завуалированно. И принимаются всякие законы о том, что нельзя использовать куки без согласия владельца компьютера. И если он отзывает свое согласие, то владелец сайта обязан все куки удалить.
Все это технически смешно и направлено на убеждение неграмотного обывателя, что его личность уважают. Однако, впереди следующий этап, на фоне которого все «кагебешные» ухищрения выглядят детской игрой…
Термин «биг дата» слышали все, да? Термин «нейронные сети» тоже? А «искусственный интеллект»? И кто скажет, что это плохо? Так ведь и ножом можно хлеб резать, а можно и кишки выпускать…
Увы, но если спецслужбы свои действия прикрывали хотя бы заботой о безопасности самих «опутываемых сетями» (и в какой-то мере преступность действительно падала!), то теперь все эти инструменты приходят на службу не охране, а бизнесу. А уж тут точно никаких ограничений не будет, ни закона, ни совести! Потому что деньги не пахнут, а человеческая алчность границ не знает.
Помните, что такое «полиция мыслей»? Это когда ты еще не совершил преступление, но задумался о нем. И тебя «сцапали». Но ведь можно пойти и дальше! Зачем допускать, чтобы задумался? Потенциальных преступников можно просто выявлять по их поведению в соцсетях, по их комментариям, по их маршрутам передвижения и манере общаться с коллегами. Да просто по предпочтениям в пище, не говоря уже про сексуальные пристрастия!.. Точнее, по совокупности всего перечисленного и многого другого, о чем мы сами и не задумываемся. Не верите? Я тоже не верил. Но…
Но прочитал вот эту статью. И понял, что ни один фантаст не сможет предсказать, что ждет человечество в плане манипуляций, управления и притеснения. Статья большая, там подробно описано, как в некоторых компаниях (и таких все больше!) стараются предотвратить утечку информации, промышленный шпионаж и прочие на самом деле негативные явления.
Во-первых, забудьте о приватности личности и личной жизни. Во-вторых, роботы (программы) будут принимать решения о том, может ли в вашу голову залететь мысль о смене работы или передаче конкурентам важной информации. И кто их решение оспорит? Выгоднее вас уволить под любым надуманным предлогом, чем рисковать! Ведь безработных тьма, замена найдется…
На компьютеры пользователей ставятся специальные программы, учитывающие все: посещаемые сайты, запущенные процессы, характер перемещений мыши, «клавиатурный почерк» (то есть манеру набирать тексты, длительность нажатия клавиш, скорость набора, часто встречающиеся опечатки и многое другое), не говоря уже о содержании всех набираемых текстов.
На основе всего перечисленного (и кучи иных данных с камер наблюдения в коридорах, комнатах (кое-где и такое есть) и других источников слежки) не только проверяется текущая благонадежность и эффективность сотрудника, но и его потенциальные намерения, скрытые желания и возможные тенденции в поведении.
Законность сбора всех перечисленных данных либо вообще нигде не оговорена, либо оговаривается при приеме на работу, в контракте. По принципу «не нравится — пошел вон». Иначе говоря, в суд не подашь, хотя на Западе были прецеденты, но там все же законность выше. Впрочем, я думаю, и там скоро сделают так, что все эти методы будут вполне «в рамках». Так что Оруэлл отдыхает, как говорится…
Однако, меня интересует не столько вопрос законности всего перечисленного (все равно олигархи любой закон подведут под свои интересы), сколько эффективность и научная корректность. Ведь собрать данные не фокус, но что с ними делать? Нужны алгоритмы! А кто и на какой основе их составляет? Понятно, что кроме айтишников тут есть большой вклад психологов. Но психология — штука коварная, потому что психика человека четкой логике не подчиняется.
Я с трудом себе представляю, какие выводы о намерениях человека можно сделать по его походке или одежде. Понятно, что если он открыто пишет в письме, что собирается уйти с работы — вопросов нет. Если он вдруг начинает заходить на сайты с вакансиями — тоже намерения ясны. Но разве обязательно он будет делать все это на рабочем месте? Если не дурак — то не будет. Компьютер дома есть у каждого, а смартфон — тем более. Что мешает ему искать работу или вести переговоры с конкурентами фирмы через иные устройства?
Да, конечно, можно на работе запретить пользоваться смартфоном. Но дома ведь не запретишь… И пока еще у работодателя нет возможности обязать сотрудника установить программу слежки на личный телефон. И такой возможности, думаю, и не будет, все же есть границы… Да, «телекраны» в домах уже реальность (это когда ваш смарт-телевизор подключен к интернету и записывает все разговоры в доме, передавая их на сервер «с целью лучше вас обслуживать»), но доступ к этим данным работодатель пока что не имеет.
Так что если сотрудник не полный идиот и не совершает на работе ничего откровенно вредящего компании, то спрогнозировать его действия вне работы (не говоря уже про мысли в сортире) достаточно сложно. И не факт, что вообще возможно.
Психология всегда была одним из моих увлечений, темы сознания, поведения, восприятия — все это действительно чертовски интересно. Аналогично, очень интересны вопросы моделирования всего этого и внедрения в область искусственного интеллекта. Ведь любой интеллект — это четкая логика. А мышление человека — отнюдь не только логика! И даже не только логика плюс эмоции.
Люди сейчас стали очень открытыми. Собственно говоря, их специально провоцируют на открытость, чтобы использовать их интересы, вкусы и взгляды с целью продвижения своих товаров. Ну и, конечно, отслеживания протестных настроений. А все эти селфи тоже неспроста внедрены в сознание, таким способом система получает огромное количество фотографий человека в разных размерах, ракурсах и обстановке, что позволяет обучить системы распознавания лиц (а вот это уже для той самой слежки за всеми).
Так вот, люди публикуют множество действительно достаточно интимных сведений, по которым, наверно, и можно сделать выводы о их комплексах, тайных желаниях, степени агрессивности, решительности и многом другом, полезным как для спецорганов, так и потенциального (или фактического) работодателя. Многие компании сейчас при приеме на работу открыто требуют соискателя указать свой профиль в соцсетях.
Повторяю, лично меня интересует вопрос алгоритмов. Потому что все эти вопросы стали актуальными совсем недавно, статистической базы использования еще нет. Как можно проверить эффективность алгоритма? По сути, пока никак. Поэтому даже в этой статье написано, что все эти авто-анализы пока только подспорье и человеческого вмешательства не заменяют. Я считаю, что полноценно не заменят никогда, потому что у человека есть еще одно: талант, способности, интуиция… Ни у какого робота этого не будет, никогда, по определению.
Да, можно сделать процессор, обрабатывающий триллионы операций в секунду, можно сделать самообучающиеся системы, запоминающие петабайты информации. Но человеческое сознание не укладывается в рамки алгоритмов, особенно — сознание ярких личностей. А как раз они наиболее интересны и важны, потому что предсказуемая серая масса живет примитивными инстинктами, которые уже сейчас могут быть вполне описаны и формализованы. Если цель системы — контроль над серостью, то это реально! А если нет…
В общем, имейте в виду!
Звучал недавно пример: в Калифорнии автоматическая система уволила сотрудника. Ну, «сбой», говорят, неточность программирования. Но ведь проанализировала ряд параметров, и нашла по какому уволить.
То, что меня, и всех, кто выходит в сеть, читают и анализируют каким либо образом не просто товарищи майоры, а автоматы — я уверен.
Но человеческая личность — это точно измеряемая многомерность. Вопрос только в собрании достаточного набора сенсоров для тестирования. В том смысле, что разнонаправленные специалисты разберутся уже сейчас, и отладят. (Как там, будущих легионеров сажали в клетку ко льву: покраснеет или побледнеет?).
Мне лично приходится не так уж и редко выбирать из претендентов на рабочее место инженера. Вынужден был составить типовой тест по специальности. Параллельно конечно входит и сознательная физиономистика. И я могу дать себе отчёт (значит и автомату), какие физиономические особенности мне не подходили.
Думаю, нет. Я с детства могу по паре перекинутых фраз или даже еще короче понять, что за человек передо мной, стОящий, или нет. Но я не могу сформулировать критерии. какими я при этом руководствуюсь. И форма черепа или размер глаз тут роли не играют (а именно это можно передать автомату). Так что я все жен сомневаюсь в том, что робота можно безошибочно научить разбираться в людях.
Дело просто в том, что никто не будет добиваться этой безошибочности. 90, а то и 80% успеха всех устроят, а люди, конечно, есть и вполне заурядные, стандартные, которых и автомат сможет распознать. Но оставшиеся проценты — самые важные и интересные…